News RTX 5000 & RX 8000: Ein Die für Blackwell, Chiplet-GPU für RDNA 4 im Gespräch

blackiwid schrieb:
Quellen selten so einen Blödsinn gelesen, nur unterstwe Midrange erreichen der letzten Generation das wäre das Ende von AMD als Grafikkartenhersteller, wenn wir von ner fiktiven RTX 5070ti reden würden ok aber nicht 4070, zumal das zumindest im Raster ja sogar ne Absenkung der Leistung wäre du redest vielleicht von RT Leistung, das könnte sein, aber ne Grafikkarte ist nicht primär nach RT Leistung definiert.
Wenn du mir erklären kannst wie AMD mit 4 CUs mehr (+ 6,5% gegenüber einer 7800XT), mit laut letzter Gerüchte langsamerem Speicher (18 Gbps gegenüber 19,5 Gbps) - oder zumindest recht sicher mit nicht schnellerem Speicher - 50% mehr Raster-Leistung in 4K rausholen soll, können wir weiterdiskutieren. Selbst 7900 XT Performance ist meiner Meinung nach schon optimistisch und wäre ein Erfolg.
1716883612511.png

blackiwid schrieb:
Hab ich doch ungefähr auch geschrieben oder willst jetzt bei Spekulationen um 20 Euro streiten?
Ich habe mich zugegebenermaßen auf die 500€ aus deinem ersten Absatz bezogen. Shame on me :(. Aber bei mir gibt es 7900 XT Performance für 599€ und bei dir 7900XTX Performance für 580€. Ist immer noch ein deutlicher Unterschied.
blackiwid schrieb:
Und das sie nicht auf Masse gehen ist auch reine Spekulation von dir, wenn man einen billigen kleinen Chip anbietet (da die Leistung ja so grottig ist kann der Chip ja nicht riesig sein) seh ich nicht was sie daran hindern soll davon viel her zu stellen.
Das ist natürlich Spekulation von mir. Mehr als spekulieren kann man ja momentan auch nicht. Diese Spekulation ist aber begründet. Ich spekuliere einfach anhand der Beobachtungen der letzten Generationen. Dann wird deutlich, dass AMD nicht gewillt ist, auf Kosten der Marge Marktanteile zu gewinnen. Eine andere Erklärung wäre nur, dass AMD es sich nicht leisten konnte mit dem Preis weiter runterzugehen (Produktions- und/oder Entwicklungskosten zu hoch). Beide Erklärungen für das Verhalten in der Vergangenheit liefern aber keinerlei Indiz dafür, dass AMD in dieser Generation plötzlich Dumping-Preise ansetzt. Unmöglich ist das aber nicht.

Bezüglich des kleinen Chips widersprichst du dir nun aber selbst. Wie soll AMD mit solch einem kleinen Chip denn plötzlich RTX 4080 Niveau erreichen? Zaubern können die ja auch nicht.

Und ganz generell: Ruhig Blut Brauner :D. Wir spekulieren hier alle nur. Fühl dich nicht sofort angegriffen.
 
  • Gefällt mir
Reaktionen: N0Thing
Perdakles schrieb:
Wenn du mir erklären kannst wie AMD mit 4 CUs mehr (+ 6,5% gegenüber einer 7800XT), mit laut letzter Gerüchte langsamerem Speicher (18 Gbps gegenüber 19,5 Gbps)
Da gehst du aber offenbar auf die allerwildesten hyper spezifischen Spekulationen und ein und nimmst die als Wahrscheinlich wahr an, ich halte mich an gesichertere Daten einer Verlässlichen Quelle wo ich mich über wenig Falschmeldungen bisher zurück erinnern konnte, die immer mehrere Quellen abfragt und nur sachen wo er sich halbwegs sicher ist released und das wäre MooresLawIsDead.

Diese absolut beschissene Karte könnten sie ja dann nur RX 7850 in dieser Generation und in der Nächsten muss man das ja dann wieder 1 runter stufen also ne RX 8750 nennen... das wäre ne absolute Katastrophe...
Perdakles schrieb:
Beide Erklärungen für das Verhalten in der Vergangenheit liefern aber keinerlei Indiz dafür, dass AMD in dieser Generation plötzlich Dumping-Preise ansetzt. Unmöglich ist das aber nicht.
Natürlich waren das bei den teuren Karten von AMDs letzter Generation die massiv unterperformed haben was AMD damit erreichen wollte, wären die 20-30% schneller wie geplant gewesen wären diese Preise sehr wohl Kampfpreise gewesen, nun hat AMD immer noch bisschen Gewinn gemacht und hatte noch bisschen Marge aber das ist im Vergleich zu Nvidia die pro Karte die Marge massiv erhöht halt also Wucherpreise verlangt hat, weil sie es können.

AMD kann nicht wie du vermutest her gehen gar kein Highend mehr anbieten nicht mal das untere Higend von Last Gen schlagen und absurde Nvidia Preise abrufen, das wäre das Ende von AMD, dann könnten sie auch gleich Grafikkarten einstellen.

Oder sie können ihr Gesicht bewahren die vermeintliche Schande das man gar keine Highendkarte mehr hat (ja ne 4080 ist auch kein Highend mehr wenn die 5xxx gen draußen ist das ist und ide 5080 irgendwo Richtung 4090 gehen wird), und ne Art RX 480 / 580 anbieten die sich gut verkauft und die meisten Leute eh nicht mehr brauchen nur für bessere Preise.

Ich spekulieren das AMD nicht diese Bulldozer Karte die du da anzeichnest released und sich den Markt für wahrscheinlich 10 Jahre komplett zu Nichte macht weil man den Imageverlust bei eh schon angeschlagenem nicht so aussetzt wie du es glaubst, da würde ich eher glauben das sie einfach nen clear cut machen und sagen ok wir glauben in APUs wir versuchen damit so viel nach oben ab zu decken wie irgendwie möglich setzten ganz auf Handhelds und Notebooks und Desktop steigen wir aus.

Kann natürlich sein das bei AMD nur absolute Volltrottel und Verrückte arbeiten... kann ich sicher nicht 100% ausschließen...

Das sie freiwillig sehenden Auges ne Bulldozer Presse generieren um die Margen höher zu halten der 2 Karten die sie dann noch verkaufen werden...

Und ich sag das so krass weil du ja nicht nur meintest das sie vielleicht für 600 weg gehen das kann ich mir grad beim release schon gut vorstellen aber massiv langsamer so ne minderwertige 4070ti nur gleich ziehen und dann 600 beides zusammen wäre ein Bulldozer moment.

Selbst ohne den Wucherpreis wäre die Leistung schon die Lachnummer des Jahrhunderts, ohh sie bringen ne neue Generation die vom Vorgänger zersägt wird? Man bringt ne neue Generation um die Grafikkarten langsamer zu machen, selbst für 500 Euro wäre das schwer zu verkaufen.
Es ist ein Ding nicht mehr mit der Konkurenz im High end mit zu halten aber wenn man nicht mehr mit dem Highend der eigenen Vorgänger mit halten kann... wirds absurd...
 
Zuletzt bearbeitet:
blackiwid schrieb:
Da gehst du aber offenbar auf die allerwildesten hyper spezifischen Spekulationen und ein und nimmst die als Wahrscheinlich wahr an, ich halte mich an gesichertere Daten einer Verlässlichen Quelle wo ich mich über wenig Falschmeldungen bisher zurück erinnern konnte, die immer mehrere Quellen abfragt und nur sachen wo er sich halbwegs sicher ist released und das wäre MooresLawIsDead.
:D:D Sorry, da kann ich nur schmunzeln. Den Podcast von MLID höre ich auch. Ist unterhaltsam aber der Kerl kann nicht als sichere Quelle angesehen werden. Beispiele?

1. Er hat behauptet Top RDNA 3 wird bis zu 3x so schnell wie Top RDNA2
2. Er hat behauptet Navi33 wird etwa 6900XT Performance haben.

Und zum Thema mehrere Quellen, die er heranzieht: https://www.3dcenter.org/news/news-des-5-april-2024

Zitat: "Eher interessant sind somit die weiteren Ausführungen, nach welcher MLID die textlichen Aussagen des vorgeblichen Leakers im Video-Bericht in zwei unterschiedliche "Quellen" (mit zudem unterschiedlicher Glaubwürdigkeit) aufgesplittet hat. Trifft dies zu, hätte MLID somit vorgegeben, die Video-Aussagen über unterschiedliche Quellen abgesichert zu haben, obwohl nur eine Quelle vorlag (betrifft die Blöcke "Source 1" und "Source 2"). Natürlich läßt sich nicht 100%ig sicher sagen, inwiefern MLID nicht eventuell doch weitere Quellen hinzugezogen hat, aber für den Augenblick sieht dies sehr wohl nach einer eigen-fabrizierten Glaubwürdigkeit innerhalb des MLID-Videos aus. Und dies würde letztlich bedeuten, dass man den MLID-Videos in dieser Frage generell nicht mehr trauen kann."
 
  • Gefällt mir
Reaktionen: Quidproquo77
Perdakles schrieb:
:D:D Sorry, da kann ich nur schmunzeln. Den Podcast von MLID höre ich auch. Ist unterhaltsam aber der Kerl kann nicht als sichere Quelle angesehen werden. Beispiele?

1. Er hat behauptet Top RDNA 3 wird bis zu 3x so schnell wie Top RDNA2
Nunja die RDNA war sogar bis zu 500x so schnell "bis zu heißt gar nichts" sicher auch im idealen Fall wäre es nicht 2-3x so schnell gewesen aber irgendwas ist schief gelaufen wenn sie nur genau 0% schneller war wie RDNA 2. (außer vielleicht bisschen mehr RT Leistung).

Perdakles schrieb:
Er hat hier aber nichts falsches vorhergesagt:
Allerdings muß an dieser Stelle auch gesagt werden, dass jenes Blockschalt-Bild keine unwahrscheinlichen Sachen verspricht und sich grundsätzlich an das hält, was GCC-Patches im Februar bereits offengelegt hatten
Er hat also eventuell unwichtige Bilder als Original eingestuft und vielleicht nicht richtig überprüft etwas völlig irrelevantes nichts wichtiges. Wie das PCB auf nem Bild aussieht interessiert ja genau 0 Kunden, wie die Benchmarkergebnisse in 3dMark sind interessiert Kunden... oder in anderen Benchmarks.

Fehler passieren jedem, ich habe auch nicht behauptet das er das perfekte Oracle ist und niemals auch nur 1% mit irgendwas daneben liegen wird, aber er versucht zumindest mehrere Quellen zu checken das er explizit behauptet hat das dieses Bild von 2 Quellen gedeckt ist seh ich so auch nicht, das wurde halt so in ne Folie von ihm rein gelesen.

Ich konzentriere mich primär auf das was er spricht nicht das was auf den Folien steht. Wie gesagt halte ihn auch nicht für unfehlbar, aber er versucht wenigstens ein Netz auf zu bauen und hat mehrere Quellen.

Er gibt das btw oft an das er AMD könnte einen Preis von X ansetzen und das hielte ich für gut und er könnte aber auch 50 Euro mehr ansetzen das wäre dann nicht mehr so gut oder 70 Euro mehr dann wäre es schlecht, er gibt damit ja zu das er über das spezifische Detail keine genauen Daten hat da die Preise teils noch extrem kurzfristig geändert werden, ist das ja auch logisch auch er muss manchmal spekulieren nur steckt er mehr in der Sache drin und hat mehr Hintergrundkontakte und kennt die Stimmung und anderes.

Und würde gern sehen wo er sagt "ich habe hier quellen die mir sagen das RDNA3 3x so schnell ist wie 2..." er sagt eigentlich schon immer dazu ob er etwas belegt hat oder nur Vermutungen oder Hinweise auf irgendwas hat.
 
Zuletzt bearbeitet:
Wenn man davon ausgeht das nvidia wieder so ne sprung macht wie rtx4090 den sehe ich nicht
Nvidia gleicher node daher kein shrink keine Takt plus bzw geringerer +6-8%
arch nicht besonders geändert abseits software und leicht größeren cache grob 10%
das Si leicht reduziert um 33% um die chipgrößen auf Wirtschaftlichkeit zu fertigen, der vram ist arg teuer und muss auf jeder sku drauf.

Daher sind grob high end aktuell +20% und sku folgend sein
rtx5090 +20% 896gb/s 32gb
rtx5080 +40% 896gb/s 20gb
rtx5070ti +17% 504gb/s 18gb
rtx5070 +16% 448gb/s 16gb
rtx5060ti +40%-+93% 392gb/s 14gb (hier konkurriert amd und die ps5 pro)
rtx5060 +17%-+56% 384gb/s 12gb (hier konkurriert amd mit low end n44)


Zu Bandbreite nun wann limitiert etwas aktuelle games nutzen zwischen 3-4,0gb (9-12gb) bei einen frame manchmal 4,5gb 5,0gb (13,5gb 15gb) sind aber die ausnahmen auf 2160p
Gpu haben drei Limitierungen
fp32 perf in teraflops =shader
gigapixel rop = grob Auflösung
Bandbreite = Speichertakt

Die tmu sind an die rop gekoppelt amd wie nvidia ist das identisch zu den gigapixel mit gigatexel linear verbunden . Darum hebt sich das limit auf.

Spiele sind die variablen und da gibt es heftige unterschiede zwischen den game engines die neueste ue5 rendert nach Wunsch nativ was man auch selbst in raster merkt meist rop limitiert.
Die Ursache liegt an nanite in Kombination mit lumen. (software raytraycing)
Zu sehen aktuell in hellblade 2 da ist man froh über 40fps zu kommen ohne upscaler.
Dagegen auch neu ghost of tsu wo man locker die 60fps erreicht beim high preset 1080p und richtig eingestellt um die 47fps ankommt. (entry level gpu für 200€)

2024 waren bisher die Anforderungen durchwachsen helldivers 2 oder palworld waren recht human dagegen ein dragon dogma 2 oder hellblade 2 extrem fordernd
Ein dragons dogma 2 zwingt jeden Pc in die knie aber ich wollte dieses Jahr nicht jedes UE game mitnehmen
Inhaltlich interessiert mich noch space marines 2 , god of war ragnar port, tempest rising sowie stalker 2
Ich hoffe auf nenn the last of us 2 pc port der vermutlich bei der ps5 pro Vorstellung auch noch kommt.
Rest offen
DLC habe ich mal ausgelassen da kommt auch einiges dazu.

Mlid kann auch nur zitieren was man plant, das dann aber bugs das komplett ausgehebelt hat das hätte niemand gedacht.
n31 sollte ursprünglich 3,3-3,6ghz erreichen was der chip auch kann nur eben nicht Datenkonsistent.
gpu chips kann bei leaks nur von der Planung ausgehen da wurde noch nix getestet erst nach dem finalen tapeout sind Prognosen sicher. Sofern es leaks dazu gibt. Das es dazu noch nix zu hören gibt sagt aus das es nur die nvidia FE geben wird und die aib erst q1 2025 dran sind. So verhindert man das der Konkurrent bei den mcm gpu größer plant.

Den nach blackwell wird es bis 2027 nix geben da man dann auf dem a16 node wechselt (ehemals n2x) ebenfalls mit einen mcm design
Das was hier diskutiert wird wurde vor 2 Jahren geplant.
Es ist ein Jahr her als man die ersten tapeouts (testsamples für den node) hatte und man langsam in die Schlussphase kommt
amd hat schon alles durch man wartet auf sony ps5 pro Ankündigung ab und macht den Abverkauf von n31 n32 n33 klar. Was man anhand von den preisen gut sehen kann. Wären die sku nur besser designt.


Hätte ich keine gpu würde ich sofort die rx7600xt holen beste gpu unter 400€ ohne massiven verbrauch an Strom.
Die Prognosen für n48 und n44 sind zutreffend etwa zu 90%
Die preise unklar und primär abhängig was sony für die ps5 pro verlangt. sind es 499$ ändert sich P/L nix sind es 449$ wird einiges passieren am dgpu markt.
Da die preise der rx7800xt und rx7700xt auf 449$ und 399$ sind dürfte man davon ausgehen das Sony die 449$ anpeilt.
 
incurable schrieb:
Es gibt keinen effizienten Weg, zwei vollständige GPUs miteinander zu koppeln.

Entweder wirft man Leistung weg, oder verwendet ganze Funktionsblöcke nicht. Meist sogar beides.
3 ein Master und 2 Slave ...
 
  • Gefällt mir
Reaktionen: Mcr-King
incurable schrieb:
Es gibt keinen effizienten Weg, zwei vollständige GPUs miteinander zu koppeln.
Sehe ich genauso. Das wird nicht ohne Verluste einhergehen. Allerdings wird es sich ab einer gewissen Kostenstruktur, Die Größe und yield Rate wohl lohnen.

Wenn nicht für den Consumerbereich, dann auf jeden Fall für Rechenzentren, KI und GPGPU.
incurable schrieb:
Entweder wirft man Leistung weg, oder verwendet ganze Funktionsblöcke nicht. Meist sogar beides.
Man wird sicher Leistung durch einen gewissen Overhead wegwerfen und eventuell auch zusätzlich Rechenleistung benötigen um alles miteinander zu synchronisieren. Für den Gamingbereich kann ich mir das nicht so schnell vorstellen, zumindest nicht bevor man an harte Fertigungsgrenzen stößt.

Abgesehen davon ist das sowieso eine Ente, weil die DEV Kits für die PS 5 Pro schon ausgeliefert wurden.

blackiwid schrieb:
Da gehst du aber offenbar auf die allerwildesten hyper spezifischen Spekulationen und ein und nimmst die als Wahrscheinlich wahr an,
Dann erkläre doch einmal wie AMD außer durch mehr Taktrate die Leistung signifikant steigern will? Mehr als 30% sind nicht in Sicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: incurable
DonDonat schrieb:
Ryzen hat ja sehr gut gezeigt, dass mehrere Dies durchaus gut funktionieren können
Schau Dir bitte die Ergebnisse von Zen, Zen+ und Zen 2 noch mal an, und wie "gut" diese funktioniert haben, wenn Daten zwischen entfernten Kernen geteilt werden mussten.
Ergänzung ()

blackiwid schrieb:
Da AMD nur mit ner RTX 4080 von der Leistung her konkurrieren wird, hoffentlich inclusive RT performance, wird eben alles über den Preis gehen, das werden wohl gute Zeiten für uns RTX 4080 für 500 Euro.
Wenn AMD mit zwei Scheibchen und exotischem Träger in den Unter-500-Euro-Markt wackeln sollte, hätten sie die Grafiksparte lieber gleich zusperren sollen, denn sowas zieht die Marge für die ganze Firma in der Keller.
 
Quidproquo77 schrieb:
Abgesehen davon ist das sowieso eine Ente, weil die DEV Kits für die PS 5 Pro schon ausgeliefert wurden.

PS5 Pro ist RDNA 3.5 also RDNA 3 mit neuen RT Einheiten.
Hat jetzt mit RDNA 4 nicht so arg viel zu tun.
 
incurable schrieb:
Schau Dir bitte die Ergebnisse von Zen, Zen+ und Zen 2 noch mal an, und wie "gut" diese funktioniert haben, wenn Daten zwischen entfernten Kernen geteilt werden mussten.
Richtig, trifft damit aber auch meine Aussage: wie gut das Ganze in First-Gen funktioniert muss sich zeigen ;)
Denn wenns richtig gemacht ist, funktioniert es definitiv gut und hat mehr Vorteile als Nachteile.
Plus, Rendering ist im Allgemeinen ganz gut parallelisierbar, was hier sehr für Multi-Die Ansätze in GPUs spricht.

Aber ja, wie von mir und dir hier impliziert ist eine gewisse Skepsis gegenüber komplett neuer Architektur "gesund". Chancen dass es erst mal nicht so gut funktioniert sind definitiv eher hoch, selbst mit Blick auf die aktuellen Ryzens^^
 
LeckerRK schrieb:
3 ein Master und 2 Slave ...
Mit identischen Plättchen:

- verschwendeter Platz durch überflüssige Funktionseinheiten in den Nebenrechenplättchen
+ alle Mehrfachgrafikprozessoreigenheiten, die SLI und Crossfire vor Jahren dahinrafften.

Mit zwei verschiedenen Plättchen:

- erhöhter Entwicklungs- und Produktionsaufwand
+ alle Mehrfachgrafikprozessoreigenheiten, die SLI und Crossfire vor Jahren dahinrafften.
Ergänzung ()

DonDonat schrieb:
Die haben das Problem immer noch, fällt nur weniger auf, weil jetzt mehr Kerne lokal sind.

https://www.anandtech.com/show/1758...latencies between,latencies compared to Zen 3.
 
S.Kara schrieb:
Die 4090 liegt immer im Bereich von 30-40% über der 4080. 1650€ wären aber 50% mehr als 1100€, das P/L der 4090 war nie besser als das der 4080.
Ich weiß auch dass hier im Forum schon viele recht Zeitnah nach Release eine 4090 hatten, also für 2000€+.
In Games ja, bei Anwendungen skaliert das nochmal deutlich besser. Die Karte kaufe ich nicht allein für Gaming ausser ich "brauche" 4K120 und RT.
 
  • Gefällt mir
Reaktionen: Mcr-King
CDLABSRadonP... schrieb:
Fände es schon sehr krass, wenn jetzt plötzlich doch alles wieder anders herum sein würde. Bislang sprach vieles dafür, dass GB202 ein Dual-Chip-Design wird und nahezu nichts dafür, dass Navi 48 ein Dual-GCD-Design sein würde. Und jetzt soll sich das plötzlich drehen?
@Jan
Zeit für ein Update der News, denn zumindest auf Nvidia-Seite kam jetzt noch sehr viel Licht ins Dunkel. Und es ist eine spektakuläre sowie gleichzeitig sinnvolle Erklärung:
https://www.3dcenter.org/news/gerue...s-durchsaegen-des-gb202-chips-gewonnen-werden
Kurzform: GB202 ist tatsächlich logisch gesehen 2x GB203, GB203 wird aber gar nicht separat gefertigt. Sondern es wird nur GB202 belichtet und dann wird der Wafer halt je nach Defekten manchmal so zersägt, dass zwei intakte GB203er entstehen, ein teildefekter GB202er, ein völlig intakter GB202er, ein intakter GB203er und ein vollkommen defekter GB203er oder alles dazwischen. Klingt sehr, sehr pragmatisch.
 
  • Gefällt mir
Reaktionen: mr_clark und Jan
Artikel-Update: Am Dienstag war es noch eine Vermutung der Redaktion, inzwischen will kopite7kimi es bestätigt haben: GB202 kommt zwar physisch als eine große GPU daher, besteht intern aber logisch aus zwei GPUs – quasi zwei GB203. Die Wortwahl „physisch monolithisch“ wurde vom Leaker also nicht zufällig so gewählt.

[Embed: Zum Betrachten bitte den Artikel aufrufen.]

Sofern sich dieses Gerücht am Ende bewahrheitet, würde Nvidia mit GB202 in der Tat den Pfad, den der Hersteller mit A100 und H100 gegangen ist, einschlagen – und in nächster, spätestens übernächster Generation könnte aus dem logischen Chiplet-Ansatz auch im Gaming-Segment ein physischer werden.

Ob physisch oder logisch, die Verknüpfung verschiedener GPU-Einzelbestandteile ist immer eine Herausforderung, die potentiell Leistung kostet, weil beispielsweise jeder Bestandteil am schnellsten nur auf seinen eigenen Cache zugreifen kann. Dafür sinkt das Risiko, dass die immer größeren Dies durch Fehler in der Fertigung nicht oder nur stark beschnitten auf günstigeren Produkten Verwendung finden können: Bei gleicher Fehlerdichte ist der Ausschuss umso größer, je größer die auf dem Wafer belichteten GPUs ausfallen.
 
  • Gefällt mir
Reaktionen: Hellyeah, S.Kara und DannyA4
incurable schrieb:
Entweder wirft man Leistung weg, oder verwendet ganze Funktionsblöcke nicht. Meist sogar beides.
Das ist nicht richtig. Schon die CPU beweist dir ja das Gegenteil... Und mit Monolithisch wird es nicht mehr lang weiter gehen.
Und das ganze ist nicht mit Sli oder Crossfire vergleichbar. Aber selbst die haben bis zu 80% Leistung gebracht...
Ja das Problem mit den Microrucklern müssen Sie vermutlich auch in den Griff bekommen..
Aber ich bin sicher da gibt es Lösungen für...
 
Wäre es da nicht besser wegen der Hitzeentwicklung die wieder physisch getrennt auf dem PCB unter zu bringen um so eine bessere Kühlung zu erlauben?
 
Wenn das so ist dürfte nvidia eine interconnect zwischen den Dies einsetzen das sich unterbrechen lässt
Das aber würde den gb203 echt selten machen und mit 6 tpc sein
Da fragt man sich was dann der gb205 sein wird 4 gpc würde den gb206 als ein tpc und der gb207 ist quasi gar nicht existent.
Oder nvidia teilt die Fertigung auf gb203 afaik gb202 tsmc n4 und der rest auf samsung sf4x bis 2 tpc womit dann wirklich gb206 32sm ein tpc 2gpc ist gb205 64sm 2 tpc 4gpc ist.
Dann gibt es nenn Riesenloch zwischen gb203 salvage chips und gb205 den der samsung node kommt maximal bei 2,3ghz raus.
Aufteilung dann
gb206 rtx5060 32sm (128bit)
gb205 rtx5060ti 48sm (160bit) rtx5070 60sm (192bit)
gb203 rtx5070ti (224bit) 66sm, rtx5080 (256bit) 80sm rtx5090 (256bit) 92sm
gb202 profi only (512bit) drei sku 160sm 174sm 186sm
Das wäre quasi Stillstand zur rtx4090 und der Vorteil wäre nur die geringere renderthreads was die sku besser auslastet 3 statt 6 cpu threads
Demzufolge dann so
gb202 profi only rtx quadro B8000 B6000 B5000
gb203 salvage chips rtx5090 63tf 1599$ +-0 zum ad102 128sm geringere cpu limits
gb203 rtx5080 16gb +47% 1399$ rtx5070ti 14gb +38% 999$
gb205 rtx5070 12gb +31% 599$, rtx5060ti 10gb+41% 499$
gb206 rtx5060 8gb/16gb +17% again 299$/399$
gb207 cancelt
Das wäre vernichtend für den markt und quasi P/L Stillstand bedeuten bis 450€ da die rtx5060 16gb quasi die rtx4060ti 16gb ersetzt +- 0 perf Zuwachs.
Erst die rtx5060ti wird ab 560€ rtx4070 perf haben.
Damit ändert sich nix zur aktuellen Lage.
 
  • Gefällt mir
Reaktionen: LeckerRK
Stahlseele schrieb:
Wäre es da nicht besser wegen der Hitzeentwicklung die wieder physisch getrennt auf dem PCB unter zu bringen um so eine bessere Kühlung zu erlauben?
Auf keinen Fall; das wäre sogar kontraproduktiv. Ein doppelt so großes DIE mit doppelt so hoher Leistungsaufnahme lässt sich genauso leicht kühlen wie ein normal / einfach großes DIE mit normaler / einfacher Leistungsaufnahme. (die Regel gilt natürlich generell mit beliebigem Faktor und nicht bloß mit Faktor 2) Nur kleine DIEs mit großer Leistungsaufnahme, die sind richtig anspruchsvoll zu kühlen. (deshalb war z.B. Turing auch vergleichsweise einfach zu kühlen)


Das leicht bezieht sich dabei aber auf das Abführen der Wärme vom DIE hin zur Kühler-Kontaktfläche. Der Transport weg von der Kühler-Kontaktfläche hin zu dem Ort, an dem die Wärme dann weiter weggepustet werden soll, ist umso einfacher, je größer die Temperaturdifferenz ausfällt.

Neben allen sonstigen Gründen würden auch deshalb gerne im Serverbereich alle CPU-DIEs direkt beisammen sitzen, die Organisation der Kühlung wird dann simpel.

Nochmal kurz zusammengefasst:
Großes DIE / große DIEs, geringe Leistungsaufnahme, riesiger Kühlkörper und die Kühlung freut sich.
Kleine DIEs, geringe Leistungsaufnahme, riesiger Kühlkörper? Schon schlechter. Und so geht es weiter.
 
  • Gefällt mir
Reaktionen: incurable
Zurück
Oben