KlaraElfer schrieb:
Dass ihr euch immer solche Hoffnungen macht, ist mittlerweile schon lächerlich.
Die einzige Person, die sich hier gerade lächerlich macht, das bist alleine du. Ich weiß, warum ich dich blockiere und ehrlich gesagt bereue ich gerade den Klick bei einem Zitat einer anderen Person, weil es mich interessierte, was da steht. Mangelnde Lesekompetenz und miserables Textverständnis sind keine exklusiven Probleme der Jugend und den besten Beweis hast du mal wieder geliefert.
Mein Geschwafel von »Min-FPS« steht schon im
Konjunktiv und im nächsten Absatz schreibe ich sogar schon, dass das eine Spinnerei ist. Eine
Fantasterei. Ich gebe sogar an, dass alles nur
Mutmaßungen sind. Ich habe dir nun extra für alle Begriffe die Definitionen verlinkt, damit du an deinem Textverständnis arbeiten kannst.
Sogar im weiteren Verlauf gebe ich an, dass ich die »Hoffnung« mancher hier nicht teile, dass es sich nur um eine 6800XT oder nur 6900 handelt, sondern dass ich hier selbst eher die 6900 XT vermute bei den Benchmarks. Eben weil ich 0,9 * 3080 = 6900XT erwarte.
Seit der Vorstellung der ersten Ampere-Karten (A100) schreibe ich, dass AMDs Chance davon abhängen, was NVIDIA als Gaming Ampere vorstellt und sollte ein GA100 um DP beschnitten, dafür um RT-Cores erweitert werden, AMD nicht wirklich herankommen wird. Dann kamen Gerüchte auf, dass ein GA102 ca. 5376 Shaders hat und da habe ich geschrieben, dass man an eine »Titan« herankommen kann, aber diese nicht überholen wird.
Als dann die Gaming-Ampere mit dem doppelten »Shader«-Count und man Hinweise gab, dass die 3070 die 2080 Ti erreicht, habe ich von Anfang an geschrieben: 3070 wird geschlagen, die 3080 ist durchaus ein realistisches Ziel. Was hast alleine du hier dann teilweise für unfundierte Aussagen abgelassen. Keine Ahnung von Softwareentwicklung, keine mathematischen Grundlagen, noch nicht mal die simplen Regeln der Logik beachtend. Aber wegen den dem großen Shader Impact haben hier so viele schon davon gesprochen, dass man ja nicht mal die 3070 schlagen wird.
Was hab ich mir hier die Finger wundgeschrieben, versucht die simplen Grundlagen der SM-Auslastung Turing als auch dem A100 zu erläutern. Welche Probleme existieren. Aber nein, du und ein paar andere meinten weiterhin, dass ja die 3080 uneinholbar ist und man mit Glück nur die 3070 schafft und was haben hier manche davon schwadroniert, dass ja die 3080 die 2080 Ti um Welten abhängt.
Und dann? Dann kam die Ernüchterung. Die 3080 war plötzlich im Schnitt nur noch 30 % schneller und die 3090 nur 10 % sich von der 3080 absetzt im Mittel. Nichts mit den Fantastereien einiger die davon sprachen, dass die 3090 100 % vor der 2080 Ti liegt, nicht davon, dass die 3080 ja bis zu 100 % von der 2080 Ti liegt (ja ich weiß, NVIDIA behauptete selbst nur 2080 + 100%).
Meine Einschätzung blieb weiterhin: Die 3070 wird geschlagen, die 3080 ist ein realistisches Ziel.
Jetzt kamen immer mehr Gerüchte auf wegen dem Infinity Cache, wie gut die Karte sein könnten. Statt dass ich mich aber »Hypen« lasse, betrachte ich lieber die Eckdaten, schau mir die Hardware an, die Struktur, frage Freunde und Bekannte, dass ich mir mal kurz die Karten ausleihen kann oder bei denen, die in Unis arbeite, mal ein kleines Fenster bekomme um simple »Skripte« auszuführen. Sammel es, lese mir mal das eine oder andere Paper in der Freizeit durch, weil es mich interessiert.
Auch hier in dem Thema - wo nun wirklich einige die Hoffnung auf einen 3090 Killer haben - bleibe ich realistisch, schriebe nur: Meine Einschätzung verdichtet sich: 3070 wird geschlagen, deutlich. Die 3080 ist das Ziel. Jetzt gehe ich einmal auf die »Hoffnung« mancher ein, schreibe sogar extra dazu, dass das was ich Schreibe »Spinnereien« sind und dann kommt so jemand wie du, der selbst sogar zugibt, dass er sich nicht wirklich damit beschäftigt, der mir erklären will, dass die Hoffnung, die man sich macht »lächerlich« ist?
Sorry, aber tu mir bitte einen gefallen, besser mach das, was du mal angekündigt hast und blockiere mich. Das ist sowohl für dich als auch mich besser. Ich gehe sehr differenziert an die Sachen hier ran, da machen solche »Trolleinwürfe« wie von dir einfach überhaupt keinen Spaß.
Vendetta schrieb:
Da ergibt sich für NV aber ein anderes Problem. Die Konsolen werden in der Regel Lead Plattform werden bzw. werden die Entwickler auf diese besonders optimieren, würde mich nicht wundern wenn RDNA 2 mit der Zeit immer mehr Fahrt aufnimmt und auch sehr gut altert.
Wenn alles stimmt, was ich an Informationen so finde, gerade was die XBox angeht, könntest du sogar recht haben. Die XBox soll nun nicht nur mehr einen »DX«-Dialekt verwenden, sondern wirklich DX12. Dazu kommt nun Windows 10 als vollständiger Unterbau und darauf aufbauend auch Treiber und Co.
Gleichzeitig darf man aber nicht vergessen, dass man bei den Konsolen eben eine feste Struktur hat und auch weiß, welche Hardware vorhanden ist. Für Engine-Entwickler ist klar, dass die XBox 52 CU in 26 WGP hat. Entsprechend kann man den Render optimieren, dass er passend die Threads öffneten. Ebenso weiß man, dass man - wenn ich falsch liege, bitte korrigieren - 6 Kerne hat, die man verwenden kann.
Man darf nie vergessen, dass man bei einer Konsole, auch wenn die gleiche »Hardware« verbaut wurde, die gleiche Software verwendet wird, man an wesentlich mehr Stellschrauben optimieren kann und die Architektur der Engine sowohl auf die Software-Architektur als auch die Hardware-Architektur der Konsole optimieren kann.
MS kann und wird mit der Zeit den »Compilier« für die XBox Series X verbessern. MS wird mit der Zeit den »Treiber« zusammen mit AMD für den GPU-Part optimieren.
Bei einem PC geht Leistung durch die flexible Softwarestruktur verloren. Am PC muss man immer beachten, dass verschiedene Karten im Rechner sein kann und Optimierungen, die bei der Konsole funktionieren, selbst bei gleicher API könnten sich am PC negativ auswirken und andersherum.
Vendetta schrieb:
Man sah ja an den betagten RX290/380/480/580 die ja effektiv ähnlich und fast gleich in den currentgen Konsolen zu finden sind, wie gut die gealtert sind.
GCN ist relativ gut gealtert, weil GCN1.0 bereits viele Entwicklungen der folgenden Jahre vorweggenommen hat.
Die »Schwächen« von GCN kommen dabei auf der Konsole nicht so zum Tragen, eben weil man hier Treiber, Engine usw. besser aufeinander optimieren kann. Auf dem PC war es aber eben was anderes.
Ich find in den Dokumentationen zu den späteren GCN und auch frühen z.B. Befehle, damit man alle 4 Vec16-Alus nutzen können sollte (Wave32, Wave64), aber es gibt da wohl ein Hardware-Problem, weswegen das nie wirklich funktionierte, sondern doch nur eine Vec16-ALU genutzt wurde. Genau so konnte es schnell passieren, dass bei bestimmten Funktionsaufrufen die eine SALU für bestimmte Befehle blockiert war und dann die anderen Shader (Programm) warten mussten, bis diese wieder frei war usw.
Das ist ein unglaublich komplexes Thema und ich kann dir die Probleme aufzeigen, aber am Ende bin ich da auch nur ein belesener Laie, der eben gerne mal experimentiert.