News Radeon RX 6000: AMD-Benchmarks zeigen mehr als 60 FPS in 4K

Da spricht der wahre AMD Fan... ;)
Anstatt einfach damit glücklich zu sein, dass AMD es endlich geschafft hat, ne Karte zu bringen, die knapp an der 3080 liegt - wenngleich RTRT noch offen ist und es auch vermutlich kein DLSS Äquivalent gibt - wird hier wieder spekuliert, dass ja bestimmt noch was kommt, was nochmal viel schneller ist. Und das obwohl die Realität, nämlich Lisa's Wording, eine ganz andere Sprache spricht. Warum macht man sowas? Damit die Enttäuschung am 28.10. dann größer ist?
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Chris8208, .Sentinel. und KlaraElfer
.Sentinel. schrieb:
Folgendes Gedankenspiel #1:
...
Folgendes Gedankenbeispiel #2:
...

Sowas kannst Du machen, wenn Du vom Markt sowieso nicht mehr ernstgenommen wirst...

AMD hat bei Big Navi aber diesbezüglich harte Zahlen genannt.

Unabhängig davon was am Ende eintrifft, deine Annahmen bzgl. "Gedankenspiel" hat das Problem das es für mich wie ein XOR/Kontravalenz wirkt. Es kann nur eines eintreten und dann gilt das auch für alle Kunden und das ist ganz sicher nicht der Fall.
Ich bin zwar ebenfalls euphorisch wegen der neuen Hardware aber über die Wochen wird sich das legen und ich werde wohl noch 10 mal drüber nachdenke ob sich eine neue CPU oder Grafikkarte wirklich lohnt. Das hat nix mit dem Budget für ein Hobby zu tun, einfach die Sinnhaftigkeit ob man Geld für Dinge ausgibt wenn man sie nicht braucht oder wirklich ausnutzt.
Die Aussage von Lisa Sus, was man erwarten kann, lässt so viel Luft für Spekulation, deswegen geht es hier ja auch in so viele verschiedene Richtungen. Das könnte ein gute Übung aus Dr. Kawashimas Gehirn-Jogging sein, weil jedem würde es gut tun selbst die verschiedenen Möglichkeiten durchzudenken anstatt sich einen Standpunkt auszusuchen und diesen zu propagieren.

Ebenso könnte man fragen "Wird AMD wirklich ernst genommen auf dem GPU Markt?", aktuell wirkt es nicht weil wenn es so wäre gäbe es doch wesentlich weniger Zweifler ob AMD wirklich konkurrenzfähig ist.

Harte Zahlen auf Basis unbekannter Parameter... ich würde sagen das sind demzufolge keine harten Zahlen. Es ist und bleibt ein Teaser welcher mehr Fragen aufwirft als er beantwortet, also genau seinen Zweck erfüllt. ;)
 
Adzz schrieb:
Es steht und fällt doch eh mit der raytracing leistung und dlss. Denn die 20 gb 3080 wird schon ein sehr gutes gesamtpaket sein. Wenn die rdna2 nur die rt leistung einer 2080 hat, dann hätten sie es auch weglassen können.
Zumindest die RT Leistung würde ich aktuell nicht all zu hoch gewichten, so lange RT in Spielen aktuell (und in absehbarer Zeit) eher vereinzelt genutzt wird. Mir persönlich wäre die generelle Spieleleistung erstmal wichtiger als die Performance in 3-4 Spielen (kaum einer spielt alle RT-Spiele) mit RT, die ich evtl. die nächsten Jahre spielen würde.
 
Kacha schrieb:
Da koennen sie aber gleich eine neue Generation auflegen bei dem Aufwand.
Wäre dann wie damals mit Maxwell als 1. Iteration und 2. Iteration, die dann als die 9x0-Serie kam. Ungewöhnlich wäre es nicht, da Ampere als ganzes doch eher durchwachsen ist, aber mal abwarten.

Ampere ist durchaus leistungsstark, aber gemessen an den Rohdaten, die NVIDIA hier aufführt sogar echt enttäuschend. Ich bin von NVIDIA »technisch simple« dafür aber sehr leistungsstarke Produkte gewöhnt und jetzt? Kaum bringt NVIDIA »Komplexität« und »Flexibilität« in ihre Hardware, und schon kann AMD quasi über Nacht aufholen.

Langsam scheint sich das Lehrgeld bei GCN für AMD bezahlt zu machen. Mich würde es freuen, wenn AMD dieses Mal wirklich knapp hinter der »Massenkarte« 3080 ist. Aber man wird schauen müssen.

Vendetta schrieb:
Naja das sind -4 bis 10% langsamer als ne 3080, die Karte wird deutlich über der 3070 liegen und zwar in allen games.
Die -4 % und -10 % sind in dem Fall aber »interpoliert« aus zwei verschiedenen Testes um die Werte einzuordnen. Wie einige hier bisher mehrfach auch korrekt andeutet haben: Wir wissen nicht genau wie Vergleichbar die Tests wirklich sind.

Ich würde die Werte als das nehmen, was sie wirklich sind: Tendenzen. Nicht mehr, nicht weniger. Am Ende kann es sogar sein, dass die 3080 geschlagen wird, weil AMD zwar FPS drauf geschrieben hat, aber Min-FPS meinte oder 99,8 %. Dann sähe NVIDIA im wahrsten Sinne des Wortes nur noch rote Lichter, weil die 6000 auf der Überholspur der 3000er die Rücklichter zeigt.*

*Ein bisschen Spinnerei sei mir an dieser Stelle erlaubt.

Wir können hier nur Mutmaßungen äußern, ich habe aber bereits in mehreren Themen geschrieben, besonders nach den Tests der 3080: Die 3070 wird AMD auf jeden Fall schlagen, die 3080 ist ein realistisches Ziel. Dabei bleibe ich auch.


Vendetta schrieb:
AMD hat hier ja nichtmal cherrypicked benchmarks genommen, Borderlands ist ein Nvidia optimierter Titel, der auch wie die Sau durchs Dorf getrieben wurde auf Nvidias slides und trotzdem zieht die RX6000(Lederjacke kann beten, dass es die 6800 und nicht 6900 war) hier gleich oder sogar davon um ein paar Prozentchen.
Müsste es nicht anders heißen, die Lederjacke muss dafür beten, dass es die 6900 war und nicht die 6800? Weil wenn es nur die 6800 war, dann hat NVIDIA wirklich ein »Problem«.

Aber egal welche Grafikkarte es war, man darf hier eines nicht vergessen: Die Grafikkarte ist noch nicht auf dem Markt und in knapp einem Monat kann beim Treiber bei AMD durchaus noch einiges passieren. Klar auch bei NVIDIA kann sich beim Treiber nun noch einiges tun, es gibt aber Eigenschaften, die NVIDIA beim Treiber nicht einfach eliminieren kann. Ich kann sogar relativ gut erklären, warum die 3080 als auch die 3090 sich zum Beispiel in 1080p und 1440p bei manchen Spielen nicht so »deutlich« von der 2080 Ti absetzten können.

Am Ende bleibt es aber eben dabei: Die 3070, wie manche NV-Boys hier schwabuliert haben, war nie der Gegner der großen Navi2-Karten, dafür muss man sich nur RDNA1-CU/WGP gegen Turing-SM ansehen und was beide Karten aus ihren Ressourcen rausgeholt haben. Und es war klar, dass AMD mit RDNA2 weiter die CU/WGP verbessert und auch an anderen Sachen der GPU arbeitet. Wer bisher ernsthaft - auch jetzt noch - behauptet, dass AMD die 2080Ti nicht schlagen kann, sollte sich ernsthaft lieber aus solchen Diskussionen raushalten und sich direkt den Fanboy-Aufkleber von NVIDIA auf die Stirn kleben. Selbst einer der größten NV-Fanboys, die ich kennen, geht sogar hier davon aus, dass RDNA2 zumindest nahe an die 3080 kommt. (@.Sentinel. ja, du bist gemeint. Nein, das ist nicht böse gemeint oder so, aber ein paar deiner Beiträge hab ich echt noch im Kopf zu RDNA2. Ich bin, was sowas angeht ein Elefant, aber wenn selbst du nun eher zur 3080 tendierst, sollte das doch manchem NV-Jüngling zu denken geben. ;) Ich bin aber voll bei dir, ich sehe hier auch eher eine 6900XT als eine 6800. Hoffend auf mehr, erwarte ich aber nur 0,9 * 3080, dann kann ich nicht enttäuscht werden, nur positiv überrascht.)

Gleichzeitig bleibe ich allerdings bei bestimmten Games pessimistisch und auch das hat einen guten Grund: Viele kleinere und mittlere A- und AA-Studios sowie viele kleine »Indi-Studios« testen primär auf Intel und NVIDIA Hardware und gerade wenn diese Studios noch ihre eigene Engines bauen, fällt die AMD-Hardware gerne hinten runter und läuft mehr schlecht als recht.

SKu schrieb:
Ob RDNA2 hier anders abschneiden würde, müssten Tests zeigen. Tendenziell würde ich aber eher konservativ davon ausgehen, dass Nvidia nach wie vor unter DX11 die bessere Leistung auf den Monitor zaubern wird - wobei bei Borderlands 3 die Framtimes unter Verwendung der DX12 API auch bei Nvidia besser ausfallen.
Na ja, mit RDNA hat AMD selbst bei vielen DX11-Titeln zu Nvidia aufgeholt, gleichzeitig kann Ampere bei DX11 nicht wirklich von den mehr Shadern profitieren, weil man sich hardwaretechnisch doch AMD angenähert hat mit zwei voneinander unabhängig arbeitenden Blöcken pro Shader.

Das Borderlands bei NVIDIA nun - Turing/Ampere - auch in DX12 besser läuft hat genau mit diesem Umstand zu tun, in dem man voneinander unabhängige Shader (PROGRAMM!) nun parallel laufen lassen kann, auch wenn der andere Shader nicht viel Rechenleistung benötigt.

Ich würde hier nicht pauschal von DX11 und DX12 ausgehen, sondern eher davon, dass AMD gerade von kleineren Studios mit eigener Engine nicht wirklich gut supportet wird und man daher dort eher schlechter abschneidet.
 
  • Gefällt mir
Reaktionen: ETI1120 und Shoryuken94
Teralios schrieb:
Am Ende kann es sogar sein, dass die 3080 geschlagen wird, weil AMD zwar FPS drauf geschrieben hat, aber Min-FPS meinte oder 99,8 %. Dann sähe NVIDIA im wahrsten Sinne des Wortes nur noch rote Lichter, weil die 6000 auf der Überholspur der 3000er die Rücklichter zeigt.

Dass ihr euch immer solche Hoffnungen macht, ist mittlerweile schon lächerlich.
Hätte AMD eine schnellere Karte in der Hinterhand, dann würden sie es auch zeigen, alles andere wäre merketingtechnischer Selbstmord.

Bei Zen hat AMD schon ein dreivertel Jahr vorher Leistungswerte gezeigt.

Teralios schrieb:
Müsste es nicht anders heißen, die Lederjacke muss dafür beten, dass es die 6900 war und nicht die 6800? Weil wenn es nur die 6800 war, dann hat NVIDIA wirklich ein »Problem«.

Nein, ganz bestimmt war es Navi23.^^
Teralios schrieb:
Die Grafikkarte ist noch nicht auf dem Markt und in knapp einem Monat kann beim Treiber bei AMD durchaus noch einiges passieren. Klar auch bei NVIDIA kann sich beim Treiber nun noch einiges tun, es gibt aber Eigenschaften, die NVIDIA beim Treiber nicht einfach eliminieren kann.

So kurz vor Launch oder nach Launch tut sich da nichts großartiges mehr.

Teralios schrieb:
Ich kann sogar relativ gut erklären, warum die 3080 als auch die 3090 sich zum Beispiel in 1080p und 1440p bei manchen Spielen nicht so »deutlich« von der 2080 Ti absetzten können.

Größenteils ist es einfach ein CPU Limit. Auslastungsschwierigkeiten sind da eher geringfügig.

Teralios schrieb:
Wer bisher ernsthaft - auch jetzt noch - behauptet, dass AMD die 2080Ti nicht schlagen kann, sollte sich ernsthaft lieber aus solchen Diskussionen raushalten und sich direkt den Fanboy-Aufkleber von NVIDIA auf die Stirn kleben.

Die Möglichkeit zu erwägen, dass AMD hier den kleineren Chip in dem Sneak Peak gezeit hat, ist etwa genauso albern, wie zu glauben, dass AMD mit Big Navi nur die RTX 3070 erreicht, insofern bewegst du dich in guter Gesellschaft.^^
Mit einem 500mm² Chip in 7nm sollte schon ein bisschen mehr drin sein.

Teralios schrieb:
Selbst einer der größten NV-Fanboys, die ich kennen, geht sogar hier davon aus, dass RDNA2 zumindest nahe an die 3080 kommt.

Sentinel ist sicher vieles, aber der letzte Mensch im Forum der von irgendeiner Firma Fanboy ist.
 
  • Gefällt mir
Reaktionen: Adzz und foo_1337
Teralios schrieb:
Selbst einer der größten NV-Fanboys, die ich kennen, geht sogar hier davon aus, dass RDNA2 zumindest nahe an die 3080 kommt. (@.Sentinel. ja, du bist gemeint.
Nur missverstehst Du eines- Ich bin weder Fanboy der Marke, noch des Produktes.
Ich bin Fanboy bezüglich der Technologie, die dahintersteckt.

So bin ich auch Fanboy von HBM, war Fanboy von primitive shadern, rapid packed math, AMD RIS usw. usf.
Firmennamen sind Schall und Rauch.
Von mir aus kann eine Firma mit Namen "Losertech" ein Produkt rausbringen. Wenn die Technik dahinter stimmt, bin ich der erste, ders kauft.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DDM_Reaper20, KlaraElfer und foo_1337
.Sentinel. schrieb:
Nur missverstehst Du eines- Ich bin weder Fanboy der Marke, noch des Produktes.
… ganz ehrlich: Von Dir hätte ich in dem Fall schon erwartet, dass Du die gewollte Provokation erkennst und merkst, dass Du nicht das »Ziel« der Provokation bist, sondern die Argumentation.

Oder kurz: Ich weiß schon, dass Du kein NV-Fanboy bist, dafür bist Du viel zu differenziert. Dennoch sollte es einigen zudenken geben, wenn gerade Du, der vor einigen Wochen und sogar Tagen noch einen anderen Ton angeschlagen hat, nun eher die 3080 als die 3070 als Ziel sieht. ;)
 
Teralios schrieb:
Oder kurz: Ich weiß schon, dass Du kein NV-Fanboy bist, dafür bist Du viel zu differenziert. Dennoch sollte es einigen zudenken geben, wenn gerade Du, der vor einigen Wochen und sogar Tagen noch einen anderen Ton angeschlagen hat, nun eher die 3080 als die 3070 als Ziel sieht. ;)
Das wiederum habe ich schon verstanden und mit dieser Spitze triffst Du tatsächlich voll ins Schwarze. :)
 
mibbio schrieb:
Zumindest die RT Leistung würde ich aktuell nicht all zu hoch gewichten, so lange RT in Spielen aktuell (und in absehbarer Zeit) eher vereinzelt genutzt wird.

Das gleiche kannst du zur VRAM Ausstattung sagen und da würde ich eher auf VRAM verzichten, als einen Raytracing Krüppel kaufen.
 
  • Gefällt mir
Reaktionen: KlaraElfer und foo_1337
Das eigentliche Problem ist jedoch, dass unklar ist, wie AMD die Spiele genau getestet hat. Sei es mit einem integrierten Benchmark, wenn vorhanden, oder mit einer richtigen Spielszene. Darauf geht AMD nicht genau ein.
Wenn ich sowas lese ergänze ich oft automatisch.

Der Benchmark wurde im Hauptmenü durchgeführt, außer dort sind die FPS besonders niedrig. Dann wird die erste Szene nach dem Spielstart gewählt bei der man stehen bleiben kann und die beste Variante aus 'hochgucken', 'runtergucken' oder 'zur nächsten Wand gehen und die Wand angucken' als Benchmarkszene genutzt.

Machen aber offenbar zu wenig Leute um die Hersteller davon abzuhalten irgendwelche Werte zu nennen ohne Infos dazu wie sie dazu gekommen sind. Dabei könnten sie es. Bei SPEC stehen nicht nur detaillierte Ergebnisse, sondern afaik immer auch die config dabei damit jeder den Test nachmachen kann/könnte. Da bleibt immer noch tuning übrig das man nicht sieht, aber man hat zumindest eine chance die Werte nachzuvollziehen.
 
Teralios schrieb:
Müsste es nicht anders heißen, die Lederjacke muss dafür beten, dass es die 6900 war und nicht die 6800?
Korrekt das wollte ich schreiben, wenn das nur die Flagschiff Karte war aber nicht das Top Modell kann es je nach AMDs Preisgestaltung wirklich spannend werden.
Ergänzung ()

KlaraElfer schrieb:
Hätte AMD eine schnellere Karte in der Hinterhand, dann würden sie es auch zeigen, alles andere wäre merketingtechnischer Selbstmord.
Ja die Karte werden sie auch zeigen. In 2 Wochen. Es ging erstmal nur um die CPUs mehr nicht, es macht auch mehr Sinn seine 600 Euro Karte zu teaser und dann die Leute mit dem Preis zu überraschen als die 1000 Euro Karte zu teasern, die sich dann kaum Jemand kaufen wird.
 
Teralios schrieb:
Wäre dann wie damals mit Maxwell als 1. Iteration und 2. Iteration, die dann als die 9x0-Serie kam. Ungewöhnlich wäre es nicht, da Ampere als ganzes doch eher durchwachsen ist, aber mal abwarten.

Die Frage ist halt wie es mit den Kosten und vor allem den Kapazitaeten aussieht. Laut Geruechten hat sich Nvidia ja schon einiges an 5nm Kapazitaeten gesichert. Kann also gut sein, das sie versuchen so schnell wie moeglich ihre naechste Generation zu bringen. Einen Refresh in 7nm halte ich fuer unwahrscheinlich, da sich AMD wahrscheinlich einen riesen Teil der Kapazitaeten gesichert hat um die Konsolen, CPUs, und GPUs zu produzieren.

Teralios schrieb:
Ampere ist durchaus leistungsstark, aber gemessen an den Rohdaten, die NVIDIA hier aufführt sogar echt enttäuschend. Ich bin von NVIDIA »technisch simple« dafür aber sehr leistungsstarke Produkte gewöhnt und jetzt? Kaum bringt NVIDIA »Komplexität« und »Flexibilität« in ihre Hardware, und schon kann AMD quasi über Nacht aufholen.

Wenn man rein die Leistung anschaut, ja, geht. Wenn man es aber dann mit dem Energieverbrauch und den Rohdaten anschaut sieht es wirklich schlecht aus. Der Grossteil der Leistung wurde mit mehr Verbrauch erkauft. Ihre FP/INT Einheiten skalieren unterirdisch. Sie scheinen sich wohl zu lange auf "einfach" ausgeruht zu haben. Bin gespannt ob sie wieder mehr Komplexitaet in die Hardware bringen und aus der Software rausnehmen.

Ironischerweise steht Nvidia jetzt vor dem selben Problem, das AMD hatte. Entwickler muessen fuer die Karten optimieren um die Leistung zu bekommen. Aber Nvidia kann sich den Support wenigstens kaufen.

Teralios schrieb:
Langsam scheint sich das Lehrgeld bei GCN für AMD bezahlt zu machen. Mich würde es freuen, wenn AMD dieses Mal wirklich knapp hinter der »Massenkarte« 3080 ist. Aber man wird schauen müssen.

Sie haben halt massiv Erfahrung mit komplexeren Architekturen und deren Skalierung. Aber rein fuer das Image muesste AMD vorne liegen, ansonsten wird sich in den Koepfen nichts aendern.

Bzw., ich bin auch auf CDNA mittlerweile gespannt. Wenn AMD es schafft die Skalierung hinzubekommen und mit ihrem L1 Cache Sharing es schafft wirklich die 2.3 mal mehr Leistung in Deep Learning zu erzielen, dann koennten die Karten dem A100 gefaehrlich nahe kommen. Vor allem wenn AMD sich entscheidet einen genauso grossen Chip aufzusetzen.

Dafuer, dass Nvidia "uneinholbar" schien, geht das jetzt doch recht schnell.

KlaraElfer schrieb:
Hätte AMD eine schnellere Karte in der Hinterhand, dann würden sie es auch zeigen, alles andere wäre merketingtechnischer Selbstmord.

Das macht absolut keinen Sinn. Teaser und Marketing vor einem Produktstart dient dazu die Spannung hoch zu halten und im konkreten Fall Menschen davon abzuhalten Nvidia zu kaufen und auf die Vorstellung von AMD zu warten. Da muss man nicht alles zeigen, sondern gerade so viel, dass die Spannung erhalten bleibt. Genau das hat AMD ja getan. Sie haben Leistung in Richtung 3080 gezeigt, mehr musste nicht kommen.

Und zu deinem Zen Vergleich: Bei Ryzen 3000 hat AMD ein halbes Jahr vorher was geteasert, ja, allerdings eben nicht das Top Produkt. Da war es der 3700X vs 9900K und am Ende kamen eben noch 3900X und 3950X. Und bei Ryzen 5000 haben sie gar nichts geteasert, weil es nicht noetig war.
 
Kacha schrieb:
Das macht absolut keinen Sinn. Teaser und Marketing vor einem Produktstart dient dazu die Spannung hoch zu halten und im konkreten Fall Menschen davon abzuhalten Nvidia zu kaufen und auf die Vorstellung von AMD zu warten.

Welchen 3090 oder 3080 Käufer hält ein Teaser einer Karte ab, die ungefähr 10% unter der Leistung einer 3080 liegt? Hätte man effektiv diesen Schritt gehen wollen und was in der Hinterhand, hätte man auch Zahlen die 10% über der 3080 sind präsentieren können oder Raytracing Leistung die locker eine 3080 schlägt.

Was man präsentiert hat ist das was man kann und irgendwie später auch mit dem fertigen Produkt erreicht. Wir wissen also Big Navi wird irgendwo 10% hinter der 3080 liegen und vermutlich etwas wenige kosten, wer leistungsorientiert kauft, braucht auf AMD nicht zu warten.
 
Kacha schrieb:
Einen Refresh in 7nm halte ich fuer unwahrscheinlich, da sich AMD wahrscheinlich einen riesen Teil der Kapazitaeten gesichert hat um die Konsolen, CPUs, und GPUs zu produzieren.
AMD produziert die APUs der Konsolen meines Wissens nicht, das machen Sony und MS selbst. Ändert natürlich nichts daran, dass die Fabriken völlig ausgelastet sein werden, auch das nächste Jahr über. Nvidia wird also eher versuchen die 5nm Schiene zu fahren, da müssen aber die Yields auch erstmal besser werden.
Ergänzung ()

xexex schrieb:
Welchen 3090 oder 3080 Käufer hält ein Teaser einer Karte ab, die ungefähr 10% unter der Leistung einer 3080 liegt?
In den nächsten 2 Wochen? Ich glaube AMD wird kein Problem mit den 1000 Karten die Nvidia weltweit bis dahin ausgeliefert bekommt haben :lol:
 
Vendetta schrieb:
In den nächsten 2 Wochen? Ich glaube AMD wird kein Problem mit den 1000 Karten die Nvidia weltweit bis dahin ausgeliefert bekommt haben

Da gebe ich dir absolut recht, so ein Teaser hat aber auch keine Million Werbekosten verschlungen und 1000 verkaufte Karten sind eine Million Umsatz.
 
Kacha schrieb:
Ihre FP/INT Einheiten skalieren unterirdisch. Sie scheinen sich wohl zu lange auf "einfach" ausgeruht zu haben. Bin gespannt ob sie wieder mehr Komplexitaet in die Hardware bringen und aus der Software rausnehmen.
Das haben wir beide doch bereits in vielen Themen besprochen. Das Problem ist halt, dass NVIDIA jetzt pro SM mindestens 2 Threads braucht um die Shader [ALU] perfekt auszulasten. Klar, auf den ersten Blick sind es 128 Shader pro SM, aber man vergisst halt schnell, dass es 64 + 64 sind.

Und das Hauptproblem da ist, dass man pro Thread auch 64 Werte bekommen muss und dass kann man nur »bedingt« wirklich optimieren. Da hängt zum Teil von der »Auflösung« ab, besser: Wie viele Werte der Bereich abwirft, auf den ein Shader (Programm) angewendet wird.

Kacha schrieb:
Ironischerweise steht Nvidia jetzt vor dem selben Problem, das AMD hatte. Entwickler muessen fuer die Karten optimieren um die Leistung zu bekommen. Aber Nvidia kann sich den Support wenigstens kaufen.
Nein, nicht ganz. Die Symptome sind gleich, nur die Probleme sind doch unterschiedlich. AMD hatte - obwohl es passende Befehle gab - immer das Problem, genug Threads pro CU zu öffnen. Ich würd mir gerne doch noch mal ne Vega oder Polaris holen. Es gab zwar Befehle, die eigentlich 2 oder alle 4 Vec16-Einheiten nutzen sollten, aber das schien nie wirklich zu funktionieren.

Bei NVIDIA ist nun eher das Problem, dass man jeden Thread mit 64 Werten füllen muss für jeden Block. Man sieht es ja dann, wenn ein »INT«-Befehl kommt. Wenn da pro SM nur z.B. 16 Werte kommen, dann liegen halt 48 ALUs brach. Und das Gleiche passiert auch, wenn ein »FP«-Befehl kommt, der nicht voll ausgelastet wird.

Das Symptom ist das gleiche: ALUs werden nicht ausgelastet, die Probleme sind aber doch unterschiedlich. Mich würde es nicht wundern, wenn wir bei NVIDIA bald auch eine »WGP« finden könnten, damit ein INT-Workload nur noch ein Viertel blockiert usw.

Aber langsam wird es zu technisch! ;)

Kacha schrieb:
Dafuer, dass Nvidia "uneinholbar" schien, geht das jetzt doch recht schnell.
Ach, für Uneinholbar haben meist nur Fanboys oder Laien NVIDIA gehalten, weil sie sich von der Shader-Anzahl haben blenden lassen. Was ich da teilweise auf den Gameingseiten hust*GameStar*hust gelesen habe, selbst von den Redakteuren, war schon peinlich.
 
  • Gefällt mir
Reaktionen: Sephiroth51 und Taxxor
GerryB schrieb:
Wenn man Excel ohne Hirn benutzt kommt so ein Quark dabei heraus.
(will ja mal net unterstellen, das der Ersteller der Tabelle ein schöngefärbtes Ergebnis haben wollte)
aha, wieso habe ich mich irgendwo verrechnet? - falls nicht, schau nochmal nach auf welchen Post ich mich damit beziehe, da sind die Werte für COD nunmal genannt, mit denen ich gerechnet habe, alles weitere kannst Du interpretieren/bewerten wie Du willst... schön rechnen wollte ich sicher nichts :p

SKu schrieb:
Irgendwie steht diese Tabelle im Widerspruch zu den Datenbankeinträgen bei Techpowerup. Lt. Datenbank haben sie auch eine Navi 24 gelistet, die sich aber nicht in der Tabelle wiederfindet. Ich spekuliere eher auf folgendes:
hmm, keine Ahnung, der Screenshot ist von Techpowerup von gestern, zudem kennzeichnete ich es ja als Spekulatiuseinträge...
aber danke für den Hinweis, mich wundert in dem Screen eher der niedrige Takt der RX 6900 XT
 
Wie gut funktioniert eigentlich HDMI 2.1 VRR mit AMD + LG C9, bzw. wie gut würde es theoretisch funktionieren?
Eventuell verzichte auf Monitor Gsync (da spiele ich sowieso nur wow, meistens) und spiele mit c9 + vrr :)
 
SKu schrieb:
Lt. Datenbank haben sie auch eine Navi 24 gelistet,
grad nochmal geschaut, finde leider nichts zu einer Navi 24, das sieht immernoch so aus
haste mal nen Link oder Screen davon?

1602336176814.png
 
Teralios schrieb:
Und das Hauptproblem da ist, dass man pro Thread auch 64 Werte bekommen muss und dass kann man nur »bedingt« wirklich optimieren.
Da ergibt sich für NV aber ein anderes Problem. Die Konsolen werden in der Regel Lead Plattform werden bzw. werden die Entwickler auf diese besonders optimieren, würde mich nicht wundern wenn RDNA 2 mit der Zeit immer mehr Fahrt aufnimmt und auch sehr gut altert.

Man sah ja an den betagten RX290/380/480/580 die ja effektiv ähnlich und fast gleich in den currentgen Konsolen zu finden sind, wie gut die gealtert sind. Zum Teil vielleicht weil die Architektur ganz gut war zum anderen aber wohl auch, weil die Entwickler die Engines auf die Konsolen optimiert haben und 99% der PC Spiele eben Konsolenportierungen sind bzw. PC Games die perfekt auf Konsole laufen müssen...
 
Zurück
Oben