Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsGeForce-Gerüchte: Keine RTX 4090 Ti und 512 Bit bei Ada Lovelace Next?
ich hatte "Glück" das ich eine Nvidia RTX 3090 FE für 1750€ bekommen konnte (zu einer Zeit wofür viele das Geld oder sogar deutlich mehr für eine 3080 Ti zahlten) und ich mich ärgerte das ich nicht doch bis zur 3090 Ti wartete aber als ich dann hörte, was die kosten soll = alles richtig gemacht 😁
tja und dann kam das "zweite Projekt" und ich stand vor der Wahl =
RTX 3090 FE für mein Rechner und 4070, 4080 für den Rechner meiner Frau...
oder RTX 3090 FE für meine Frau und eine RTX 4090 FE für mich 😂
scheiß drauf... es hat keinen Sinn irgendwann der reichste Typ auf dem Friedhof zu sein. Ich lebe heute..... wer weiß wie lange das noch so gut geht also was solls.
Wie viele hier versuchen den 4090 Besitzern ihre Karte oder Kauf schlecht reden zu wollen, habt ihr kein eigenes Leben? Geht arbeiten und kauft euch auch eine oder lasst den anderen doch ihre Freude mit der Karte... Ich habe 2,9 für die strix oc bezahlt, direkt am Release. Würde ich es wieder machen? Nein, bereue ich es? Auch nein. Alle zwei Jahre kann man wohl 2k für eine GPU Ausgeben, wenn es ein Hobby ist, ist aber natürlich auch kein muss, aber eben ein kann, dass akzeptiert werden sollte. Dann die Besitzer anzugehen, dass die hohen Preise nur wegen einem sind ist fragwürdig und zeigt eigentlich nur die eigene Frustration.
Naja, wer arbeitet kann zum glück selbst entscheiden wofür er sein Geld ausgibt. Man kann 2.000 auch ohne Probleme an Silvester verschießen, macht auch spaß, nur eben nicht so lange
Alle zwei Jahre kann man wohl 2k für eine GPU Ausgeben, wenn es ein Hobby ist, ist aber natürlich auch kein muss, aber eben ein kann, dass akzeptiert werden sollte.
naja alle 2 Jahre würde ich das auch nicht machen wollen aber 100% Zustimmung.
Wenn mein "10 Jahresplan" aufgeht und meine Hardware solange mit macht, werde ich mit Sicherheit in 10 Jahren auch wieder den selben Weg gehen und die Karte kaufen. Mehr oder weniger egal was sie kostet.
2000€ auf 10€ gerechnet = 200€ pro Jahr = 16,67€ pro Monat = 0,56€ Pro Tag.... den Rest erspare ich mir 😁
und wenn sie schon früher kaputt gehen sollte... na dann halt Pech gehabt. Bis dahin hat man das Geld mit Sicherheit wieder zusammen gespart.
Ada ist die erste Generation, die auf eine Generation folgt, in der es eine 90er Karte gab und die 4070 ist nicht auf dem Niveau der 3090 sondern eher bei der 3080.
Und die 3070 war so stark wie die 2080Ti.
Eine 5070 wird dann auch eher auf 4080 bzw 4080Ti Niveau sein
Und die bietet mehr Leistung als eine 3090.
Bei deutlich weniger Vram.
Die 2080ti war das Gaming Flaggschiff.
Ob die nun 2090 geheißen hätte oder nicht.
Und der Vorsprung zw. Flaggschiff und 2nd best war lange nicht so hoch. Oder doch? Vllt habe ich durch die ganzen GPU Tests schon einige Infos in meinem Hirn verwaschen tbh^^
GCN war der Bulldozer, RDNA 3 wäre schon der nach-nach-nachfolger.
Man muss hier nicht träumen, AMD wird nicht plötzlich einen "Zen" aus dem Hut ziehen, bzw hat man das sogar schon :RDNA(1) war deren "Zen" Moment.
Aber während Intel in einer Krise steckt und auf Zen immer noch nicht ordentlich antworten konnte, schaut das bei NV ganz anders aus.
ich kaufe nur neu wenn was kaputt sein sollte oder die 10 Jahre um sind.
Was noch funktioniert wird als Reserve weg gepackt (Bastelprojekte) oder verschenkt.
da bin ich eisern und klappt seit über 30 Jahren mit x Systemen perfekt 👍
Alle 10 Jahre mal oben ins Regal gegriffen und gut ist.
Mal gucken was ich in 10 Jahren von Nvidia zu sehen bekomme. Vielleicht RTX 7090 FE mit 64GB VRAM?? 😂
Und was meinst du wie Nvidia die Hosen erst nass hat bei den Karten, die im Workstationbereich massenhaft für fünfstellige Beträge über die Theke gehen. Und das ist mittlerweile das Kerngeschäft...
Jep, genau das, ich finds nicht gut, aber ich bin froh, dass NV es mir überhaupt gestattet hat eine 4090 kaufen zu dürfen, oder können, oder beides....
Spaß beiseite, es ist das Kerngeschäft, jede 4090 und gefühlt alles darunter, muss Jensen gefühlt bei jeden Aktionär höchstpersönlich rechtfertigen, wieso draus kein KI/AI Beschleuniger wurde....
Ich seh auch den Markt für ne 4090 Ti gar nicht, die 4090 ist so weit vorne in allem, die steht wie so ein einsames gemobbtes Kind auf weiter Flur.... verlassen von allen... bloß dass sie hier verlassen von aller Konkurrenz dasteht....
Was will NV denn noch machen? Sich selber für 500 Euro mehr toppen? Oder 1000 Euro? Dann sind wir immer noch bei vergeudetem Silizium für unnütze Gamingkarten die keiner braucht und nur wenige davon verkauft werden, hätte man auch gleich für 10K das Stück ins Datacenter verkaufen können....
Und so gräbt man sich das Wasser auch gleich für die Nächste Gen ab, läuft dann ähnlich wie bei Apple, wenn die anderen schon einen nicht mehr besiegen können, besiegt man sich eben selber.... nur was bringen 15-20% max. mehr, wenn dann die etwaige 5090 nur 30% mehr hat für äh ja, netten 2,5K....
So hat man wenigstens 50% wo man bei der 5090 sagen kann "SEHT HER!!!! WIEDER SO VIEL MEHRLEISTUNG" -> Wobei es am Ende wohl ein Rohrkrepierer wird wie damals die 1080Ti zur 2080Ti.
Wenn NV ne 4090TI mit +15/20% inkl. dann 2025 -> 5090 mit >=60-70% rauswirft, fress ich nen Besen, never ever, das wäre zu übertrieben und so weit halte ich NV vom technologischen Vorsprung gerade nicht, wobei es mit TSMCs Node schon gut aussieht.
Die Zeit wird es schon richten.
Hoffe nur AMD schließt mit RDNA4 auf und kann kontern - und Intel bringt hoffentlich auch noch was sinnvolles.
Aber eine on Par Situation wie der 6900XT zur 3090 wird es wohl nach dieser Gen auch nächste nicht geben, äußerst schade....
Naja, Hosen enger schnallen, der nächste Hobel wird nochmals teurer, gibts halt unter der Woche bisschen weniger zu essen, bin eh zu fett
Nie und nimmer kommt die 2025 high-end Nvidia Generation mit 512bit Speicherinterface. Maximal bleibt es bei 384bit. Ich denke eher, dass es sogar im Bereich des Möglichen liegt, dass das Interface geschrumpft wird.
256bit GDDR7 bei 36Gbps erlauben auch über 1 TiB/s an Bandbreite, 32Gbps wird bereits seit einer Woche von Samsung gefertigt. Dass der Speicherbus quer durch den Produktstack beim Wechsel von Ampere auf Lovelace geschrumpft wurde, zeigt wo die Reise hingeht.
Ich habe für meine Asus RTX 4090 TUF auch 2300 € bezahlt. Bin aber auch hoch zufrieden. Hatte vorher einen PC mit einer 1070 und bin froh darüber alles auf max spielen zu können.
Klar ist es nicht wenig Geld und es ist auch nicht schön das Nvidia so viel dafür nimmt, aber trotzdem sollte doch jeder für sich entscheiden können, was er/sie kauft und ob man bereit ist, diesen Preis zu bezahlen.
Oder schreibt Ihr den Leuten auch vor, wer sich einen Porsche kaufen darf und wer nicht?
Manche Menschen verzocken 5000 € in der Spielhalle, andere kaufen sich für das Geld ein Auto und ich mir halt einen pc. Jedem das seine.
Hmm, 384 Bit x 21 Gbps Memory = 1,008 TB/s Bandbreite. Man könnte mit dem neuen GDDR7 also sogar das Interface auf 256 Bit verkleinern, bei 32 Gbps Memory wären wir dann dennoch bei 1,024 TB/s Geschwindigkeit.
Zumindest also in der Hinsicht kein Abstieg, das ist schonmal gut. Mit großen Modulen könnte man dann auch tatsächlich relativ problemlos 32GB Speicher abbilden. Mir wäre dennoch ein 384er Interface mit 24GB Memory und dafür 1,536 TB/s lieber.
Caramelito schrieb:
Jetzt gibt es keinen Grund dafür.
Außer AMD zaubert eine 7950XTX mit 20% mehr Leistung daher ^^
Selbst dann könnte ich mir vorstellen, dass man das eher entspannt bei nVidia sieht und auf RT + DLSS + CUDA und Co verweist und sagt man sei ja dennoch schneller und liefert mehr overall. Was ja nicht ganz falsch ist.
Eine echte Not besteht vermutlich selbst dann nicht um wertvolle Marge auf dem Gaming Markt zu verlieren ggü. den Datacenter Gewinnen.
Rickmer schrieb:
*Beim 8nm -> N4 Wechsel waren +40% Takt und +270% Transistordichte oder so drin. Bei N3 sind +10% Takt und +70% Transistoren zu erwarten. Das ist ein Bruchteil.
Kommt stark aufs Design am Ende wohl an. Je nach Verfahren sind bei N3 Density Improvements von 18-56% drin und ein Speed Increase zwischen 32-11% sowie Energy Reduction von 12-30%.
Irgendwo in der Mitte wird sich das dann wohl finden. Ich würd jetzt mal mit 30% mehr Dichte rechnen, 15% weniger Verbrauch und dabei 15-20% mehr Clocks.
Wäre jetzt auch nicht direkt miserabel. Ggü. meiner 4090 wie sie aktuell läuft wären statt 3 Ghz jetzt 3,5 drin, statt 16384 Shadern wären es um die 20480 und statt 450 Watt würde die Karte etwa 400W ziehen. Einfach mal so plump gerechnet.
Ich würds so kaufen.
Haldi schrieb:
Die RTX4090 ist ein Krüppel der wesentlich besser Performen sollte!
Verglichen zur 4080 sind da Unmengen mehr Transistoren verbaut. Aber die Performance ist gerade mal 30%? Voraus. Irgend etwas blockiert diese Karte gewaltig!
Der Krüppel performt extrem gut und extrem effizient und wird bei meiner 3440x1440p Auflösung eigentlich immer von der CPU eingebremst die jetzt auch kein Schwächling ist. Gewagte Aussage also.
Grössere Steigerungen siehst du halt nur in Szenarien wo die Karte auch ausgelastet werden kann, da würd ich jetzt eher mal die Game-Engines unter die Lupe nehmen, nicht die Karte. Im Rendering und ML/DL-Workloads ist der Abstand nämlich bedeutend größer.
SaschaHa schrieb:
Interessanter als die reine Leistung sind für mich die Effizienz und die Schnittstellen, insbesondere DP 2.1 @ UHBR20 für 5k144.
Das ist eher das Problem. Mit meinem 240Hz Monitor und 10 Bit HDR muss ich leider immer zwingend mit DSC arbeiten. Das ist extrem ungeil und verhindert zB dann auch Techniken wie (DL)DSR die gerade bei älteren Games toll sind einen aber durch die olle Schnittstelle auf 144 Hz limitieren.
Es gibt aber auch gerade mal zwei Monitore seit 11.7. die überhaupt DP2.1 supporten. Da geht die Scheisse ja schon weiter. Und beides sind überteuerte IPS Panels, eins mit 60 Hz, eins immerhin mit 160 Hz.
DevPandi schrieb:
Erste gerüchte gehen bei RDNA gehen von 144 CU aus. AMD skaliert aktuell relativ gut, was CU und Takt angeht mit der 7900 XTX gegenüber der 6900 XT. 20 % CU, 10 % Takt (etwas hoch gerechnet) kommen rechnerisch auf 32 % mehr Leistung, die 7900 XTX schafft bis zu 41 % mehr - was auf das Vec32-Dual-Issues auch zurück zu führen ist.
Wird RDNA4 auf 144 CU aufgebohrt, stehen 50 % mehr CU und sollte die Skalierung wie von RDNA zu RDNA2 sein und jetzt auch RDNA3 mit den CU, dann könnte man eine RTX 4090 um ca. 15 % überholen. Mit weitere Architekturverbesserung und dem lösen einiger Probleme, sind auch 20 - 30 % drin.
Wenn die Arch ähnlich effizient läuft wie die Aktuelle liegt man dann aber bei problemlos 600W und konkurriert dann bei gleicher Performance mit einer 400W GPU. Gut sieht das dann auch nicht aus. Da gibts noch einiges woran sie arbeiten müssen.
DevPandi schrieb:
Die Frage, die man sich eher stellen sollte: Was können wir von NVIDIA erwaten bei der nächsten Generation. Der AD102 skaliert bereits nicht wirklich so gut, wie er skalieren müsste. Der Weg von noch mehr SM ist bei der RTX 4090 nur bedingt aufgegangen, einfach in der nächsten Generation noch mehr SM, TPC und GPC in den Chip zu bringen, könnte sich als Sackgasse aktuell erweisen.
Ich würde erwarten, dass man hier evtl. weniger bei den Shadern drauflegt und dafür deutlich mehr auf Cache und Takt setzt sowie dem von dir erwähnten Feintuning an den einzelnen SMs.
DevPandi schrieb:
Ich glaube nicht, dass NVIDIA mit einer 5090 noch mal die SM so draßtisch hochschraubt wie mit AD102 zu GA102. Ich schätze eher, dass die 5090 vielleicht sogar bei 144 SM bleibt und NVIDIA die einzelnen SM als auch die GPC anfassen wird und dort ggf. Proleme angeht, die den Chip aktuell limitieren.
Ich behaupte sogar, dass das Problem eher auf Software-Seite liegt bei den Game-Engines. Denn in produktiven Workloads kann man sich deutlich weiter absetzen, da kann auch alles besser ausgelastet werden und es bestehen einfach weniger Abhängigkeiten von zig Kleinigkeiten.
Ergänzung ()
Taxxor schrieb:
Wobei sich in Diablo 4 gleichzeitig auch die 4080 sich nicht vor die 7900XTX setzen kann
Stimmt. Sowas wie Horizon Zero Dawn läuft auf der PS5 ja auch problemlos mit 240 fps auf Ultra Settings in 4K.
Achtung - Sarkasmus.
Ergänzung ()
Jenergy schrieb:
Und andere erben Millionen und könnten sich jeden Tag ne 4090er kaufen und mit den restlichen 500€-Scheinen den Kaminofen anfeuern. Macht es das nun besser? Die Karte ist und bleibt überteuert. Aber klar, Leute die ein wenig darauf achten, was sie mit ihrem Geld machen, sind alles Neider.
Der Unterschied ist nur, dass derjenige welcher seinen Kamin mit 500€ Scheinen befeuert dir nicht erzählt wie doof du bist weil du dir etwas nicht leisten kannst/willst und dir das in zig Foren immer wieder reindrücken muss. Das findet irgendwie immer nur umgekehrt statt. Jemand der für sein Hobby viel hinlegt wird automatisch als dumm dargestellt oder achtlos.
Wer ist denn der wirkliche "Dumme" ? Wer 1500€ im Monat für sein Leasingauto ausgibt aber 10k€ Netto verdient oder wer 250€ ausgibt aber auch nur 1500€ Netto verdient ? Der mit der teuren Karre gibt 15% seines Lohnes für Mobilität aus, der Andere 16,67%. Letzterer wäre aber in deinen Augen nach reinem Kaufpreis der "Achtsame".
Steht alles immer in Relation zum Gehalt und den Lebensumständen und macht solche Aussagen wie deine immer so unglaublich facepalmig. Gibt hier sicher genug auch im Forum die für vier Kinder von drei Frauen Alimente abdrücken müssen und anderen dann erklären wie das Leben läuft und wie achtlos sie mit ihrem Geld umgehen wenn sie sich ein teures Hobby leisten.🤣
Jenergy schrieb:
Manche machen sich die Welt echt ein bisschen zu einfach.
Ob 7900 XTX hin oder her, selbst wenn AMD so eine Karte bringen würde, dann würde es trotzdem wenig bringen gegen Nvidia da AMD einfach mit FSR 3 nicht hinterherkommt, Ich bin sehr enttäuscht von AMD
Wenn FSR 3 kommt, wird Nvidia zu viel Abstand mit ihren Features haben, sehe das schon kommen, da bringt eine 7900 XTX dann auch nichts mehr, selbst wenn sie kommen würde meine Meinung
Und ander weniger, wenn man sieht, dass die 7900 XTX in ein paar Spielen quasi der 4090 auf den Fersen ist und um wenige Prozente zurück hängt.
Am Ende ist der Entscheidende Punkt, dass aktuell von der 4090 - CB-Test mal genommen - in der Regel im besten Fall nur ca. 23 Prozentpunkte der "theoretischen" Leistung liegen bleibt und im schlechtesten Fall 70 Prozentpunkte. Im Mittel sind es halt knapp 46 Prozentpunkte. Und das Spiel, dass am besten aktuell Skaliert ist CoD MW2, hier legt die 4090 82 % auf die 3090 Ti und ist damit quasi fast am perfekten Ergebnis drann, gleichzeitig kann sich die 7900 XTX auf 15 % heran schieben.
Aber das ist theoretischer Natur. Die Karte ist leider geil.
kratos31 schrieb:
Lasst euch was besseres einfallen als so ein Kindergarten verhalten
Und du solltest dich an der eigenen Nase packen, bevor du meinst andere zu belehren, wie neidisch diese Leute angeblich sind.
Es gibt neben dem Neid - keine feine Eigenschaft - auch noch die Prahlerei, Geltungssucht, die ebenso keine feinen Eigenschaften sind. Man kann seine Hardwarekäufe auch einfach tätigen und muss nicht jedem - und schon garnicht so offensiv, wie es einige hier tun - auf die Nase binden, dass man sich jede Generation ja eine Grafikkarte für 2800 € leistne kann und dass alle, die es nicht können, doch nur mehr Arbeiten müssen oder sich einen zweiten Job suchen soll oder nur sparsam leben muss.
Es ist mein Hobby, ich hab meine Käufe auch unten in der Signatur aufgelistet und doch schreibe ich nicht jede Nase lang, dass ich mir das gegönnt habe und gönnen kann und wie toll ich doch deswegen bin.
Manchen würde es gut tun, wenn sie sich etwas in Bescheidenheit üben würden.
ThirdLife schrieb:
Wenn die Arch ähnlich effizient läuft wie die Aktuelle liegt man dann aber bei problemlos 600W und konkurriert dann bei gleicher Performance mit einer 400W GPU. Gut sieht das dann auch nicht aus. Da gibts noch einiges woran sie arbeiten müssen.
Das Problem lag schon immer auf Softwareseite, egal ob GCN, Vega, Ampere oder jetzt Ada. Das ändert aber nichts daran, dass man auf Softwareseite nur bis zu einem bestimmten Punkt etwas tun kann und sich die Hardware-Entwickler entsprechende Organisationsstrukturen für ihre GPUs überlegen müssen, damit diese möglichst gut ausgelastet werden können.
Und man kann Gaming nicht mit Compute-Workloads vergleichen und sich dann Neunmalklug hier hinstellen und schreiben, dass es bei den Game-Engines liegt. So etwas zeugt von einer gewissen Ignoranz und ebenso von fehlendem und notwendigen Fachwissen, damit man wirklich qualifiziert mit diskutieren kann.
Die Auslastung einer GPU wird durch die Anzahl der Shader als auch der Werte pro Shader bestimmt und darauf hat man als Entwickler nur bedingt Einfluss darauf. Es ist an den Hardware-Entwicklern, dass sie sich überlegen, wie sie ihre Rechenwerke zusammen fassen, damit diese möglihst optimal ausgelastet werden.
Und in Compute ist es immer leichter eine GPU auszulasten, weil man in der Regel genug Daten mit der gleichen Operation im gleichen Thread oder Task hat. Solche Szenarien kommen in Compute-Workloads wesentlich häufiger vor, weil man die gleichen Operationen auf viele Daten ausführt und damit entsprechend das System befeuern kann.
Ein Bild in einem Videospiel wird aber in der Regel kleinteilger berechnet, weil man nicht den gleichen Shader auf das ganze Bild hat.
Ich fände ja eine 4080 Ti viel interessanter. Früher war es üblich, dass eine xx80 Ti die Leistung der jeweils aktuellen Titan in Spielen erreichte (siehe 980 Ti, 1080 Ti, 780 Ti) zum alten Preis der normalen xx80.
So eine Karte fände ich ziemlich interessant, aber die Zeiten sind bei Nvidia wohl vorbei.
Und andere erben Millionen und könnten sich jeden Tag ne 4090er kaufen und mit den restlichen 500€-Scheinen den Kaminofen anfeuern. Macht es das nun besser? Die Karte ist und bleibt überteuert. Aber klar, Leute die ein wenig darauf achten, was sie mit ihrem Geld machen, sind alles Neider.
Manche machen sich die Welt echt ein bisschen zu einfach.
Die Preise sind ja bereits „normalisiert“, gemessen an der weltwirtschaftlichen Lage. Selbstverständlich würde ich auch viel lieber nur 500€ für diese Karte zahlen. Das ist jedoch komplette Utopie. Ich würde auch viel lieber nur 80ct pro Liter Super Plus zahlen, statt derzeit wieder 2€.
Alles ist teurer geworden. Deshalb hat man nur zwei Möglichkeiten. Mehr Geld verdienen, oder Verzicht.
Bei mir steht auch kein 911er in der Garage, weil ich mir keinen leisten kann, auch wenn ich es noch so will.
Dass Nvidia die Ti(tan) verworfen hat macht Sinn. Die RTX 4090 ist mit großem Abstand die aktuell schnellste Gaming-Grafikkarte am Markt, und das wird wohl erst einmal so bleiben. Da braucht es marketingtechnisch kein Upgrade.
Es gibt neben dem Neid - keine feine Eigenschaft - auch noch die Prahlerei, Geltungssucht, die ebenso keine feinen Eigenschaften sind. Man kann seine Hardwarekäufe auch einfach tätigen und muss nicht jedem - und schon garnicht so offensiv, wie es einige hier tun - auf die Nase binden, dass man sich jede Generation ja eine Grafikkarte für 2800 € leistne kann und dass alle, die es nicht können, doch nur mehr Arbeiten müssen oder sich einen zweiten Job suchen soll oder nur sparsam leben muss.
Und genau das ist Neid! Schau dich mal im Rest der Welt um; da kannst du in Foren problemlos Fotos von deinem teuren Auto oder deinem schönen Haus posten und bekommst dafür Zuspruch und Anerkennung, statt Prahlereivorwürfe und dieser - wirklich absolut typisch deutschen - Neidkommentare.
Kommentare wie "zweiter Job" und "mehr Arbeiten" fallen übrigens in keinem einzigen Fall vom prahlerischen Himmel, sondern sind einzig und alleine Reaktionen auf Anfeindungen anderer - und das verdientermaßen.
Das Schlimme dabei ist diese Mischung aus unterkomplexem Denken und Naivität, mit der dann ernsthaft behauptet wird, man würde sich selbst dann keine Grafikkarte für 2000 Euro kaufen, wenn man Millionär wäre. Genau, weil man ja der einzige Mensch auf der Welt ist, der sich durch (viel) Geld nicht verändern würde. Oder man bekäme heute eine 4070 für 300 Euro, wenn die Leute nur rechtzeitig 4090 und 4080 komplett boykottiert hätten. Genau, weil das ja auch in der Vergangenheit schon so prima mit anderen Konsumartikeln funktioniert hat.
So dumm das klingt. Auch wenn ich 2800€ für meine 4090 als early adopter bezahlt habe. Es war bisher einer meiner besten Hardware Käufe überhaupt.
Die Karte ist so dermaßen schnell und leise, dazu noch effizient, dass es wirklich ein Traum ist. Sie beherrscht sämtliche, modernen Features, hat einen großen VRAM und lässt keine Wünsche offen.
Die Aussage ist so, als wenn ich mir einen Bughatti, Königsegg als Millionär kaufe der bis jetzt Ferrarie, Lambo, Porsche für 300k gefahren ist und sagt, dass die 2 Millionen es wert sind , weil es das geilste ist, was er je gefahren hat.
Irgendwo in der Mitte wird sich das dann wohl finden. Ich würd jetzt mal mit 30% mehr Dichte rechnen, 15% weniger Verbrauch und dabei 15-20% mehr Clocks.
Performance und Power ist immer ein entweder oder. TSMC gibt für N3E gegenüber N5 15-20% mehr clock bei gleicher Power an.
Und 4N ist nicht N5 Vanilla. Das ist schon optimiert.