Bericht RTX-3000-Technik im Detail: Floating Point ist Amperes Liebling

Na, nicht so Aggro.....
Das die 9% Marktanteilverlust zum Großteil durch den Notebookbereich entstanden sind, habe ich hier selbst im Forum gebetsmühlenartig geschrieben. Mir musst du das bestimmt nicht erklären. ^^

Und das Nvidia kein Samariter ist, war auch klar.
Mit der Entscheidung für Samsungs 8nm gewinnt aber Nvidia, weil sie die Margen halten können, und man kann die 3070/3080 relativ "günstig" anbieten.

Ich habe da Verständnis für die Preisgestaltung bei Nvidia.
Natürlich hätten sie auch TSMCs 7nm nehmen können, was auch besser für die Effizienz gewesen wäre.

Dann hätte man aber weniger Marge gehabt, die GPUs teurer verkaufen müssen, und die Shareholder wären unglücklich gewesen.

ps: Ich futter jetzt Pizza, mit Hackfleisch, Pilzen, und viel Käse, und spiele dann FF XII weiter.
Ich wünsche euch einen schönen Sonntag, und einen guten Start in die neue Woche. gn8
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Colindo
Colindo schrieb:
Wenn ich zu der Diskussion noch etwas sagen darf, dann denke ich du hast sein Beispiel fundamental missverstanden.

Nichts für ungut aber das in Posting #219 zitierte Beispiel kann man nicht wirklich missverstehen aber lassen wir das. Die Diskussion hatte eh zu nichts geführt. ;)
 
Wadenbeisser schrieb:
Ich sehe da jetzt nicht so den Mehraufwand denn in dem Fall wäre der große Unterschied lediglich das Package.

In der Entwicklung ist der Chip natürlich etwas teurer und je nach Speicherinterface kostet es etwas Chipfläche. Nur ein 384 Bit Interface ist wesentlich günstiger, als ein 512 Bit oder 384 Bit + HBM oder die Entwicklung eines Hybridcontrollers mit Interface für beides. Und auch die Platine kann nicht die gleiche sein. Hier bräuchte man für die HBM Version eine andere Platine.

Wadenbeisser schrieb:
Würde man dabei auch noch auf HBM2E setzen würden sogar 2 Stacks reichen um auf die Bandbreite einer RTX3080 zu kommen.


Ja würde reichen, wäre aber auch alles andere als günstig und hat ein ganz dickes Fragezeichen bei der Verfügbarkeit. Die HBM2E Massenproduktion läuft noch nicht so ewig und die Nachfrage dürfte in der Industrie recht hoch sein.

Wadenbeisser schrieb:
16 Speicherchips und ein entsprechend komplexes PCB für ein 512 Bit GDDR6 Speicherinterface.

Bisher ist auch kein 512 Bit Interface bestätigt. Die GDDR6 Preise sind ja kein riesen Geheimnis. Je nach Geschwindigkeit ist der Speicher nicht mehr so teuer. So sehr komplex wird das PCB dadurch auch nicht. Bei 16 Chips ist es eher eine Platzfrage. Aber das war es auch damals bei der 290x. Hat man aber auch gelöst.

Warten wir es doch einfach ab was kommt. Am Ende zählt eh nur das Ergebnis. Ob HBM oder wie breit das Interface ist, ist eh egal. Letztlich muss die Perfrmance und der Preis überzeugen. Und da sehe ich HBM auf einer Consumerkarte aktuell recht kritisch. Wenn AMD den absoluten High End Markt anstrebt warum nicht. Aber wenn Sie Chips mit guter Marge als Ampere Konkurrenz anbieten wollen, dann sehe ich da wenig Spielraum. Auf einer Radeon Pro hingegen stehen die chancen wesentlich besser.
 
Zuletzt bearbeitet:
@matty2580

Ich denke das es auch nicht unerhebliche Kapazitätsprobleme bei TSMC gegeben hätte denn die scheinen derzeit ohnehin sehr gut damit ausgelastet zu sein. Ich denke dass das auch eine nicht unerhebliche Rolle gespielt hatte.
 
  • Gefällt mir
Reaktionen: Colindo
Beim Reddit-Interview hat der Nvidia-Mitarbeiter gesagt, dass man sich aus wirtschaftlichen Gründen für Samsungs 8nm entschieden hat, was für mich logisch klingt.

Dazu kommt das TSMC mit Huawei den 2. wichtigsten Auftraggeber verloren hat, was ein großes Loch bei TSMC hinterlässt. D.h. der Fertiger sollte eigentlich genug Kapazität frei haben.
 
Colindo schrieb:
Dir ist schon klar, dass der Verlust an Marktanteilen fast ausschließlich auf Laptops zurückzuführen ist? Das wird noch dauern, bis AMD in dem Sektor umfassend angreifen kann...

Wie kommst du drauf?
Acht von zehn diskreten Grafikkarten kommen laut Jon Peddie zuletzt wieder von Nvidia, die AMD ein großes Stück vom Kuchen abgenommen haben. AMD konnte dank neuen und leistungsstarken APUs im Notebook jedoch Intel einige Marktanteile bei integrierten Grafikeinheiten abnehmen.
https://www.computerbase.de/2020-08/diskrete-grafikkarten-nvidia-amd-marktanteil/
 
@Shoryuken94

Wenn das HBM Speicherinterface kleiner als die zusätzlichen 128 Bit GDDR6 kostet es 0 Chipfläche, die Entwicklung eines zweiten Chips entfällt und man profitiert von einer entsprechend großen Masse an Chips für die Selektion. Die guten Chips mit HBM2(E) entsprechend teuer verkaufen und die Teildeaktivierten müssen mit GDDR6 vorlieb nehmen. Des weiteren vergisst du das bei HBM das PCB durch den Wegfall des Speichers deutlich einfacher und damit günstiger ausfallen kann.

Des weiteren brauch man kein 512 Bit Speicherinterface bestätigen wenn HBM zur Debatte steht. Ziemlich sicher ist allerdings dass die immer wieder auftauchenden 16 GB Grafikspeicher nicht mit einem 384 Bit GDDR6 Speicherinterface realisiert werden.

Entweder oder.......entweder sind die bisherigen Informationen unvollständig oder ganz einfach falsch.
Ergänzung ()

@xexex

Gelten unter den "diskreten Grafikkarten" aus dem Artikel auch die fest verbauten Grafikchips in Laptops? Zu den integrierten Grafikeinheiten gehören sie schließlich mit Sicherheit nicht.
 
  • Gefällt mir
Reaktionen: Mcr-King
Colindo schrieb:
Da hast du seinen Text nicht richtig gelesen: Er sagte doppelte Berechnungen in einer Einheit. Das geht so natürlich nicht. Ich habe die Formulierung von Wolfgang aber auch nicht mehr im Kopf.
OK- Dann ist das klar.

Wenn ich zu der Diskussion noch etwas sagen darf, dann denke ich du hast sein Beispiel fundamental missverstanden. Er meint nicht, dass man Steppermäßig das gesamte Bild aus kleineren Teilbildern wie Kacheln zusammensetzt, sondern dass man die ganze Fläche mit niedriger Auflösung aufnimmt und dann minimal versetzt erneut und so weiter. Das entspricht dem Jittering, das bei DLSS 2.0 verwendet wird.
Die Kacheln sollten nur als Beispiel dienen, dass das ganze Mosaikartig passiert.
Das geht ja aus den Bildern, die ich dazu gepostet habe ja auch eindeutig hervor.
Was man aber missverstehen will, kann man auch missverstehen....

Du vergisst hier, dass der Zuwachs an INT-Berechnungen durch die Erstellung und Aktualisierung der BVH-Struktur kommt. Das machen nicht die RT-Cores.
Aber die Acceleration- Structure wird doch nachwievor über die CPU zugefüttert?
Zudem ist man ja auf nichts gezwungen:
http://www.tut.fi/vga/publications/Storing-BVHs-in-Halfs.pdf

Gab es nicht mal ein Tech- Sheet für einen geplanten co- prozessor oder eine FF- Einheit, die nur dazu da ist, die acceleration structure zu erstellen und zu unterhalten....
Ich schau mal, wo ich das gelesen habe.

Ich mein- Luft nach oben ist natürlich immer ;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
Wadenbeisser schrieb:
Gelten unter den "diskreten Grafikkarten" aus dem Artikel auch die fest verbauten Grafikchips in Laptops?

Natürlich! Aber wie kommt man drauf AMD hätte bei den Notebooks Marktanteile verloren und nicht bei den Grafikkarten?
 
@matty2580

Soweit ich weiß hat TSMC zwar Huawei als Auftraggeber verloren, aber nicht deren Aufträge.
Huaweis bereits in Auftrag gegebene 7nm Fertigung wird also noch komplett bei TSMC gemäß Vertrag abgearbeitet. So wie auch anscheinend der nächste 5nm SOC von denen.

Es sind also keine Kapazitäten frei geworden, sondern es werden welche in Zukunft frei werden - aber eben erst soviel später, dass die 3000er Serie davon keine Vorteile hätte.

Selbstverständlich werden 8nm (10nm) nur aus Kostengründen genutzt - man wird schließlich weder in Sachen Max-Leistung noch Effizienz großartig von AMD bedroht. Da ist es logisch erstmal den Zwischenschritt zu gehen, trotzdem #1 in Effizienz und Leistung zu sein, dafür aber seine Produkte etwas günstiger anbieten können und leichter einen ähnlichen Leistungssprung beim zukünftigen Schritt auf 7nm zu erhalten. Man will ja nicht wieder wie bei Pascal "zu gute" Karten bauen und dann bei der nächsten Gen (wie Turing) Probleme haben das zu überbieten.
 
  • Gefällt mir
Reaktionen: Mcr-King
TheDarkness schrieb:
Selbstverständlich werden 8nm (10nm) nur aus Kostengründen genutzt

Damit widersprichst du dir selbst bei der Aussage, es gäbe aktuell keine Kapazitäten. Ich denke eben dass AMD mit den beiden Konsolen, Renoir, Ryzen 3000 und den ganzen Serverprodukten momentan die Produktion von TSMC ziemlich auslastet und Nvidia selbst ihre erfolgreichen Serverprodukte bei TSMC herstellen lässt und hier die Priorität höher setzt.

Da sind Kapazitäten für ein Massenprodukt wie die neuen Ampere GPUs schlichtweg nicht vorhanden und hätte man die Fertigung bei TSMC durchführen lassen, würden wir über Monate vor leeren Regalen stehen. Natürlich sind die Kosten immer ein Faktor, die vergleichsweise riesigen GPUs von Nvidia brauchen schlichtweg aber auch Waferkapazitäten. Ampere ist nicht Navi und die Chips sind keine 250mm² groß, sondern 628mm².

Nvidia hat mit den kommenden GPUs preislich ziemlich auf die Pauke gehauen, die enorme Nachfrage die sich daraus ergeben wird, kann man dann aber nur befriedigen wenn man genug Fertigungskapazitäten hätte und da sehe ich bei TSMC eher schwarz. Es kann ja durchaus sein, dass man im kommendem Jahr kleinere Chips für 3060, 3050 und Nachfolger der 1600 Serie dort fertigen lässt, letztendlich macht es aber immer Sinn mehrere Fertiger zu haben um bessere Preise aushandeln zu können und unabhängiger von möglichen Produktionsproblemen zu sein.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: monitorhero
Wadenbeisser schrieb:
Wenn das HBM Speicherinterface kleiner als die zusätzlichen 128 Bit GDDR6 kostet es 0 Chipfläche

Dürfte nicht der Fall sein. Je nach Architektur fallen die Größen der Interfaces etwas unterschiedlich aus. Gibt da aber einen Berich von 3dcenter.org. Alle zahlen sind grobe Abschätzungen anhand von Die Shot Analysen.

Ein 32 Bit Controller ist demnach etwa 4mm² groß. Die zusätzlichen 128Bit machen also etwa 16mm² aus. Ein 1024 Bit HBM2 Interface von Vega 20 ist im Durchschnitt 10,2mm² groß. Macht bei 2 Stacks 20,4 und bei 4 Stacks 40,8mm² aus.

Damit ergeben sich ganz grob für die verschiedenen Möglichkeiten:

2048 Bit HBM = 20mm²
4096 Bit HBB = 41mm²
384 Bit = 48mm²
512 Bit = 64mm²
384 Bit + HBM 2048 Bit = 68mm²
384 Bit + HBM 4096 Bit = 105mm²

Bei Ähnlicher Größe wären also 384 Bit + 2 HBM2 Stacks möglich. Das würde aber auch bedeuten, dass AMD dann mindestens HBM2E nutzen müsste. Die Abnahmemenge an HBM2E wäre aber gleichzeitig sehr gering, wenn der Speicher vorerst nur auf der High End Gamingkarte genutzt wird. Würde nur Sinn machen, wenn AMD die gleiche Karte auch als Radeon pro oder ähnliches verkauft. Aber bei den pro Modellen ist die auf Gaming ausgelegte Navi Architektur bislang nicht so stark vertreten. Da hat man ja vor kurzem erst die Pro VII auf Vega II Basis gebracht und im Computebereich wird auf CDNA gesetzt. Sollen sie normalen HBM2 Speicher mit 4096 Bit Anbindung nutzen, dann wäre das Interface mehr als doppelt so groß. 2048 Bit würden den teureren und schlechter verfügbaren HBM2E verlangen, 4096 Bit viel Platz auf dem Chip.

Wadenbeisser schrieb:
Des weiteren vergisst du das bei HBM das PCB durch den Wegfall des Speichers deutlich einfacher und damit günstiger ausfallen kann.

Ja, aber du vergisst, dass man dann für einen Chip auch zwei Platinen braucht und die Karten separat gefertigt werden müssen. Zugleich nimmt man sich einen anderen Vorteil. Statt einer größeren menge GDDR6 Speicher abzunehmen, verringert man die Einkaufsmenge. Der Einkaufspreis des Speichers wird hierdurch nicht unbedingt günstiger.

HBM macht also nur wirklich sinn, wenn man ihn auch wirklich effektiv nutzt, sprich entweder den Platzvorteil, die Energieeffizienz und den Geschwindigkeitsvorteil. Aber wenn man hier die meisten vorteile durch ein kleines 2048 Bit Interface zu nichte macht, holt man sich fix den nachteil aus beiden Welten, wenn man das kombiniert.

Wadenbeisser schrieb:
Ziemlich sicher ist allerdings dass die immer wieder auftauchenden 16 GB

Anhand der fast nicht vorhandenen Leaks zu RDNA2 sollte man auch die 16GB nicht unbedingt als bestätigt sehen. Viele Leaks sehen nämlich auch 12GB für Big Navi. Der letzte 16GB Leaks sprachen übrigends auch von GDDR6.

Wadenbeisser schrieb:
nicht mit einem 384 Bit GDDR6 Speicherinterface realisiert werden.

Wahrscheinlich nicht. Ich würde mich aber zum jetzigen Zeitpunkt auch nicht auf eine bestimmte Speichermenge festlegen.

Wadenbeisser schrieb:
Entweder oder.......entweder sind die bisherigen Informationen unvollständig oder ganz einfach falsch.

Die bisherigen "Informationen" widersprechen sich teilweise und stammen nicht unbedingt aus vertrauenswürdigen Quellen. Es gibt weder zu den 16GB noch zum eingesetzte Speicher wirklich etwas halbwegs sicheres.

Big Navi kann ebenso mit 12GB kommen, es kann auch mit 16GB HBM only kommen. Noch ist alles möglch, aber einige Varianten sind realistischer als andere und es ist eine Preisfrage. 384 Bit 12GB kosten bedeutend weniger, als eine Hybridlösung mit HBM 2E Speicher oder eine HBM Only Version. Und auch da ist dann die Frage, wer die kosten tragen soll. Der Kunde, die gewinnmarge. HBM macht keinen Sinn, wenn man seine Vorteile nicht voll nutzt. Das hat AMD selbst mit Fiji und Vega gemerkt und bei der VII hat es die Marge ruiniert, was bei einem "Abfallprodukt" der Instinct Serie, das nur in homöopathischen Mengen als Prestigeprodukt erschienen ist vertretbar ist, aber nicht wenn man im Massenmarkt Geld verdienen möchte.
 
  • Gefällt mir
Reaktionen: monitorhero
@Shoryuken94

Auf welche Speichersorte bezieht sich das GDDR Speicherinterface genau? Tendenziell dürften bei den schnelleren Interfaces stärkere Treiberstufen erforderlich sein die sich auch noch am schlechtesten schrumpfen lassen. Größenangaben für GDDR5 dürften also relativ nutzloss ein. Navi 10 vs. Vega 20 wäre hierfür durchaus interessant.
Für Navi 10 habe ich schon was gefunden und da nehmen die Controller relativ viel Platz ein, bei Vega 20 suche ich noch.
Ein Link wäre praktisch gewesen. ;)

PS: Vielleicht wäre es besser die Diskussion auszulagern. 🤔 :D
 
  • Gefällt mir
Reaktionen: Mcr-King
Wadenbeisser schrieb:
@thrawnx

Wie soll das jemand ohne Karte testen?
Wer so gern mit Worten wie "Fanboy" um sich wirft sollte besser aufpassen das er nicht selbst im Glashaus sitzt.

Tue ich nicht, mache mir da keine Sorgen. Nach zig Jahren Intel einen Ryzen gekauft, aus dem einfachen Grund weil er besser ist, selbiges mit der GFX von Nvidia und FALLS irgendwann mal AMD eine bessere GFX bringt, dann ist das auch in Ordnung und nur gut für die Kunden. Und warum ich sie Fanboys genannt habe, kannst du in deren Kommentarhistorie leicht selbst nachvollziehen.

Leuten im Vorfeld zu erzählen dass etwas schlecht ist und etwas anderes besser, nur anhand der Farbe, ist einfach Unsinn. Also auf Tests und RDNA2 warten und Tee trinken.
 
thrawnx schrieb:
Du könntest statt im Kreis zu eiern auch einfach meine Frage beantworten, auf die der AMD Fanboi dessen Beiträge du ständig likest nicht eingegangen ist. Kann sie auch gerne wiederholen: Wofür reichen 10GB nicht?

Bitte sieh davon ab weiter what ifs zu spinnen bevor du darauf geantwortet hast. Was ist eigentlich los mit euch, wenn ich mir euere Beiträge so angucke, spielt ihr euch ständig den AMD Fanball gegenseitig zu, statt einfach Tests abzuwarten und das beste Produkt für den eigenen Einsatzzweck zu kaufen? Glaubt ihr echt ihr bekehrt irgendwen mit dem Unsinn, oder habt ihr einfach keine anderen Hobbies?
Du bist ja lustig. Bezeichnest andere als Fanboys, die auf Beiträge anderer nicht eingehen, um dann aber selbst auf meine Fragen, die durchaus nüchtern und unabhängig gemeint waren, nicht einzugehen. Deshalb nochmal anders formuliert, in der Hoffnung, daß der Verstandsfunke dann zündet:

Denn wenn ich keine Grafikkarte haben will, die nur 8 GB hat, und auch keine, die bei mehr als 250 Watt TDP eingeordnet wird, dann ist nvidia nun mal raus, da sie beides aktuell nicht zu erfüllen scheinen. Und jetzt die Überraschung: Das würde auch für AMD gelten, Tadaaaa! Und das obwohl ich AMD-Fan bin, Krass oder?

Daß 0815-AAA-Spiele sowieso nur 6 GB brauchen, ist für mich irrelevant, denn ich mag eher ältere (Singleplayer-)Spiele die Mods unterstützen, die ohnehin ordentlich VRAM fressen.

Und zu meiner persönlich 250Watt-Grenze - naja da brauch ich nicht viel zu sagen, denke ich. Stichpunkt Abwärme und persönliche Neigung zu gedämmten Gehäusen usw, das verträgt sich nicht endlos mit immer mehr TDP...
 
  • Gefällt mir
Reaktionen: Wadenbeisser, Mcr-King und mylight
matty2580 schrieb:
Beim Reddit-Interview hat der Nvidia-Mitarbeiter gesagt, dass man sich aus wirtschaftlichen Gründen für Samsungs 8nm entschieden hat, was für mich logisch klingt.
Was sollen sie auch sonst sagen? Dass die Kapazitäten bei TSMC knapp sind? Denn Huawei hat die meisten Kapazitäten bei der kommenden N5 verloren, in N7 haben sie ja bis vor kurzem noch auf Lager produziert. Das kann Nvidia ja schlecht direkt übernehmen, wenn sie für N5 gar nichts designt haben.
xexex schrieb:
Wie kommst du drauf?
Ich folger das einfach daraus, dass seit März wie blöde Laptops verkauft werden und AMD da ein großes Loch im Portfolio bei dedizierten Laptop-Grafikkarten hat. Die 5600M ist ja quasi nicht existent, die 5700M wird wenig verwendet. Und Apple-Macbooks sind sicher nicht so groß im Marktanteil.

So passt das auch zu den häufig proklamierten Mindfactory-Zahlen und den Quartalsberichten im letzten Jahr, wo Desktop-Navi sich sehr gut verkauft hat. Warum sollte das ausgerechnet in Q2 2020 nicht mehr der Fall sein? Die Treiberprobleme gab es ja auch hauptsächlich letztes Jahr.
.Sentinel. schrieb:
Aber die Acceleration- Structure wird doch nachwievor über die CPU zugefüttert?
Meine Recherche ergab, dass die komplett im VRAM steckt. CB hat auch schonmal festgestellt, dass der 2060 mit DXR die VRAM-Puste ausgeht, während der VRAM ohne DXR noch reicht. Der wird von der Grafikkarte selbst konstruiert.

Dein Paper ist sehr interessant, da ich den Inhalt noch nicht kannte. Im Abstrakt steht auch, dass bisher INT benutzt wird. Das habe ich auch in meinem Raytracing-Artikel begründet, weil die Abstände zwischen zwei Zahlen bei INT immer gleich sind. Bei FP32 ändern sich die Abstände mit dem Exponenten. FP16 wird, soweit ich weiß, nicht benutzt. Aber vielleicht in Zukunft.
 
Ich bin total unsicher ob es eine RTX 3070 oder 3080 sein sollte, rein vom P/L, was denkt ihr?
Ich hatte 2018 für meine 1070TI ca. 400€ gezahlt, mittlerweile hakt es schon in einigen Spielen, gerade Apex Legends ist richtig schlimm, im Durchschnitt 100FPS, aber sobald es vom Kampf her und der Location intensiver wird, geht's schon runter auf ~ 60FPS...
 
Hat mal jemand den Börsenkurs von Nvidia verfolgt? Am Tag der Ampere Präsentation ist dieser hochgeschnellt. Nach der Veröffentlichung der Technikartikel am 4.9 hat sich der Kurs wieder deutlich normalisiert. Ich würde sagen, das hängt mit den Fakten zusammen, die die Karten in ein realistischeres Licht rücken. Finde ich immer spannend zu beobachten. Was denkt ihr dazu?
 
  • Gefällt mir
Reaktionen: Mcr-King
Colindo schrieb:
Meine Recherche ergab, dass die komplett im VRAM steckt. CB hat auch schonmal festgestellt, dass der 2060 mit DXR die VRAM-Puste ausgeht, während der VRAM ohne DXR noch reicht. Der wird von der Grafikkarte selbst konstruiert.
Ja- Die wird schon vom VRAM aus durch die RT Kerne beschossen. Ich sage ja nur, dass eher die Erstellung INT- Lastig ist.

Und letztenendes ist ja eben die Frage, wie es mit den Verhältnismäßigkeiten aussieht.
Wenn Du die hier schon öfter rumschwirrende Grafik ansiehst, spielt INT im Verhältnis keine sonderlich große Rolle, so dass bei einem Switch auf INT/FP letztenendes kaum Leistung flöten geht.

Der Anteil bei Games liegt zwischen 10% und 50% im Mittel wohl bei 35%. Wobei man natürlich beachten muss, dass die aktuellen Titel auf Turing optimiert ist:

Interessant an dem Video ist, dass sie damals ja schon wussten, was Ampere machen wird und dass in zukünftigen Titeln eher wieder ein Offload der komplexen Shader stattfinden wird.

Weiss das Studio oder die darunter liegende Engine zudem, dass es mit Ampere zu tun hat, dann lassen sich sicher einige Int- Operatoren auf FP zwingen. Bei der Optimierung auf Turing ist natürlich aus Gründen der Auslastung genau das Gegenteil passiert, weswegen man die im Netz befindlichen Statistiken zum FP/Int Verhältnis vorsichtig zur Kenntnis nehmen muss.

Was in diesem Zuge mit die Interessanteste Frage werden wird ist, wie dem Warp- Scheduler zugefüttert wird bzw. inwieweit eine Aufteilung manuell positiv beeinflusst werden kann.

Alles in Allem kann man aber mit der neuen Organisation nicht verlieren. Bei einer 3090 wirst Du, selbst wenn Du (worst case) 50% INT Anteil annimmst, dann immernoch 5000 reine FP32 Einheiten nutzen können.

Also in Summe 7500FP32 und 2500Int.
Und das ist nunmal weit entfernt von 4000/4000, gerade wenn die zweiten 4000 nur zum Bruchteil genutzt werden.
Nimmt man Skalierungseffekte aus dem Spiel, dann erklären sich die 60%-80% Leistungszuwachs relativ logisch.

Insofern ein genialer Schachzug. Wenig Designaufwand, großer Impact.
Spannender wird die Softwareseite, weil man halt ein effektives Switiching vorhalten muss, ohne die Entwickler allzusehr damit zu belästigen.
 
Zuletzt bearbeitet:
Zurück
Oben