Recht wenig Leistungssteigerung und Energieeffizienz bei 14nm / 12nm -> 5nm / 4nm / 3nm

Martyn schrieb:
Ich glaub wenn China auf Basis von 14nm und 12nm Fertigungsprozessen vorallem über den Preis den Markt aufrollen würden, hätten sie relativ gute Chancen gegegen die aktuellen 5nm / 4 nm / 3nm Prozesse von Intel, AMD, Nvidia, etc.
Keine Chance, zumindest in dem highend Bereich in dem Apple und Nvidia spielen. Da sind die Unterschiede insbesondere zu 3nm dann mehr als deutlich genug.

Der Fortschritt ist langsamer als je zuvor, aber er ist noch nicht erschöpft.

Außerdem sind die China Fertigungsprozesse in dem Größenbereich noch von TSMC DUV Maschinen abhängig was soweit ich mich erinnere aktuell schwierig in der Beschaffung ist für China. Hier das Volumen bereitstellen zu können wäre also auch eine Herausforderung.

usernamehere schrieb:
Was Intel als 14nm bezeichnet hat, ist technologisch etwas völlig anderes als das, was TSMC oder Samsung heute unter 5nm, 4nm oder 3nm anbieten.
Ganz ehrlich - Intel 14nm ist nicht mit Intel 14nm vergleichbar. Über die langen Jahre die 10nm nicht funktionierte, hat Intel extrem viele Optimierungen gemacht.

Es wurde nicht umsonst über 14nm++++++++ gewitzelt. Zwischendurch war Intel für Desktop auf 14nm geblieben weil 10nm nicht besser performt hätte zu dem Zeitpunkt.

usernamehere schrieb:
Zum Thema China und 14nm/12nm: Es ist richtig, dass diese älteren Prozesse etabliert und kostengünstiger sind. Für bestimmte Anwendungsbereiche, wo es nicht auf absolute Spitzenleistung ankommt, sondern eher auf ein gutes Preis-Leistungs-Verhältnis, könnten Chips auf Basis von 14nm/12nm durchaus eine Rolle spielen.
China hat sogar 7nm nur mit DUV und ganz viel multipattering umgesetzt.

Wie vergleichbar das mit TSMC 7nm ist? Mir sind öffentliche Untersuchungen nicht bekannt.
 
  • Gefällt mir
Reaktionen: TomH22
Man wird Kohlenstoff-Nanoröhren als Stromleiter im Chip integrieren und optische Datenleitungen, um Leitungsverluste und damit die Abwärme einzudämmen, dann ist wieder eine höhere Rechenleistung möglich, weil die Chips kühler bleiben bei hoher Taktfrequenz.
 
Willi-Fi schrieb:
Im Heimbereich hat die Mehrheit irgendwas von Noctua, Arctic, Cooler Master, Grizzly, ... zum Teil alles nutzlos im Dauereinsatz.

Ich habe vor kurzem bei einem Core i5-6600K nach 8 Jahren den Kuehler (Noctua NH-L12) abgenommen (um den Kuehler auf meinem neuen Prozessor zu montieren). Die Waermeleitpaste (von Noctua) war immer noch eine Paste und nicht ausgetrocknet. Der Prozessor wurde allerdings auch nicht besonders warm. M.W. ist die Basis nichtfluechtiges Silikonoel, das sollte auch bei Dauerbetrieb mit 100 Grad nicht austrocknen, noch dazu wo es nur eine sehr kleine Oberflaeche gibt, von der das Oel verdunsten kann.
 
Rickmer schrieb:
China hat sogar 7nm nur mit DUV und ganz viel multipattering umgesetzt.
Wie vergleichbar das mit TSMC 7nm ist? Mir sind öffentliche Untersuchungen nicht bekannt.
Der erste 7nm Prozess von TSMC war auch ohne EUV.
 
  • Gefällt mir
Reaktionen: Rickmer
0x8100 schrieb:
nur ist weder die 4070 dreimal so schnell wie eine 2080 noch sind die spiele dreimal schöner geworden.
Der Fokus liegt auch mittlerweile auf der Computing-Performance sowie AI, was unter anderem auch die Grundlage für DLSS ist. Hier ist man von 85 TOPS (RTX 2080) auf 466 TOPS (RTX 4070) gesprungen, Also sogar weit mehr als Faktor 3 (und zwar Faktor 5,48, um genau zu sein).

Auch Latenzen und die Skalierbarkeit spielen eine Rolle. Selbst bei identischer Architektur bedeutet ein doppelt so potenter Chip noch lange keine Verdopplung der Leistung. Die einzelnen Recheneinheiten müssen halt auch ausgelastet werden, was bei Games eben bedeutet, dass das Bild feiner und sinnvoller segmentiert werden muss.

"Sinnvoll" heißt dabei, dass die Größe der Segmente nicht homogen/einheitlich ist, sondern anhand der Komplexität der Szene abgeschätzt und angepasst wird. Bildbereiche, die viele Shader-Effekte enthalten, benötigen mehr Rechenleistung als jene, bei denen einfach nur eine simple Textur gerendert werden soll. Diese Abschätzung passiert in Echtzeit und ist die Grundlage dafür, dass die Karten überhaupt halbwegs gut ausgelastet werden können. Und das wird eben mit einer höheren Anzahl an Recheneinheiten immer schwieriger und ist vermutlich auch ein Grund dafür, warum eine RTX 4090 beispielsweise selten ihre maximale TDP erreicht.
 
  • Gefällt mir
Reaktionen: TomH22
danke cpt. obvious :p ich bin kein excel-künstler, aber hier mal der transistor-count (in millionen) vs. timespy-werte:

1737996156507.png

die chips haben immer mehr transisitoren, auch (und gerade) für raytracing und ml. und dann betrachtet man mal, was die ganze zusätzliche chipfläche kostet und ob es das ganze raytracing-zeugs und die ai um das ganze zu denoisen, hochzuskalieren und frames zu interpolieren wert ist.

auch mit raytracing sind spiele immer noch sofort als solche zu erkennen und werden es auch bleiben. man kann auch mit reinem rasterizing sehr schöne grafik erstellen:



sowas war mit einer 2080 in 4k 60fps (daher die videoauswahl) bereits möglich. und sehen spiele heute besser aus? ich sage nein, jedenfalls bei weitem nicht um den faktor, wie der transistor-count und der preis gestiegen ist. das leistungsproblem bei spielen war eigentlich gelöst, aber damit man weiter hardware verkaufen kann, hat man sich künstlich ein neues problem gesucht und es mit raytracing gefunden. und jetzt stehen wir wieder da und rendern intern mit 1080p während hunderte watt an leistung verbraten werden.
 
  • Gefällt mir
Reaktionen: Martyn
Das Transistorcount ist ja nicht nur für Raytracing drastisch gestiegen, sondern eben auch für die Tensor-Cores und andere Dinge, die insbesondere die Computing- und AI-Performance drastisch erhöhen. Ohne diese wären Dinge wie DLSS in dieser Form, wie wir sie heute sehen, nicht möglich. Der größte Pull-Faktor dürfte da aber ohnehin der Servermarkt sein, und da werden die zusätzlichen Transistoren recht gut genutzt.

Zum aktuellen Zeitpunkt halte ich Raytracing auch noch für eine Spielerei, allerdings gibt es schon einige Titel, in denen es einen gewissen "Wow"-Effekt auslöst, beispielsweise bei Cyberpunk. Und auf DLSS würde ich auch nicht mehr verzichten wollen, insbesondere nicht auf (M)FG.

Ich kann die Kritik durchaus verstehen, nur würde es ohne Raytracing irgendwann vermutlich kaum noch einen grafischen Fortschritt geben, oder dieser wäre mit einem enormen zusätzlichen Entwicklungsaufwand verbunden. Von daher finde ich die aktuelle Entwicklung eigentlich recht nachvollziehbar.
 
  • Gefällt mir
Reaktionen: TomH22
wuesty schrieb:
oder was erwartest du? jede generation 100% mehr leistung?
Meine Erwarungshaltung wäre von Generation zu Generation entweder:

ca. 40-55% mehr Leistung bei unveränderte Leistungsaufnahme
oder
ca. 40-55% weniger Leistungsaufnahme bei unveränderter Leistung
oder
ca. 25-32% mehr Leistung bei 12-25% weniger Leistungsaufnahme

Letztere Variante wüde ich eigentlich als das Optimum ansehen.

SaschaHa schrieb:
Also jetzt nur mal ein Vergleich:
  • RTX 2080: TSMC 12 nm, 13,6 Mrd. Transistoren @ 545 mm² -> 24,95 Mio. Transistoren/mm²
  • RTX 4070: TSMC 5 nm, 35,8 Mrd. Transistoren @ 295 mm² -> 121,36 Mio. Transistoren/mm²
Das ist effektiv eine Steigerung der Transistordichte um den Faktor 4,86. Das ist nicht gerade wenig.
Aber für mich zählt das was am Ende rauskommt.

Wenn ich in der Mittelklasse eine GTX 1660 Ti 6GB oder RTX 2060 6GB mit einer RTX 4060 8GB oder RTX 4060 Ti 8GB vergleiche, dann sehe ich da keinen so grossen Unterschied. Die Leistung ist da nur gering gewachsen.

Und sparsamer wurden die Karten auch nicht. Die GTX 1660 Ti 6GB hatte 120W MCGP und RTX 2060 6GB 160W MCGP. Die RTX 4060 8GB hat 115W MCGP und die RTX 4060 8GB hat 160W MCGP.

Anders sieht es natürlich in der Oberklasse aus. Von der RTX 2080 Ti 11GB zur RTX 4080 Super 16GB oder gar zur RTX 4090 24GB gab es natürlich schon einen deutlichen Leistungschub.

Aber leider hat der seinen Preis.

Während die RTX 2080 Ti 11GB "nur" moderate 260W MCPG hatte, sind es schon bei der RTX 4080 Super 16GB 320W MCPG und bei der RTX 4090 24GB stolze 450W MCPG.

Und auch beim Preis. Die RTX 2080 Ti 11GB wurde für 1.259€ UVP vorgestellt aber war dann recht schnell für maximal 1.170€ zu bekommen. Die RTX 4080 Super 16GB spielt jetzt auch in dieser Preisklasse obwohl sie schon länger auf dem Markt ist und die nächste Serie schon an der Tür steht. Aber die RTX 4090 24GB ist erst ab 2.650€ neu zu bekommen obwohl oder gerade weil sie ein Auslaufmodell ist.

Rickmer schrieb:
Keine Chance, zumindest in dem highend Bereich in dem Apple und Nvidia spielen. Da sind die Unterschiede insbesondere zu 3nm dann mehr als deutlich genug.
Gegen einen Intel Core Ultra 285K oder AMD Ryzen 7 9800X mit einer GeForce RTX 4090 hat man da natürlich keine Chance, aber da landet man dann preislich eben auch schnell in der 3.500€ bis 4.000€ Preisklasse wenn allein die Grafikkarte mindestens 2.650€ kostet.

Das ist deshalb eh nichts für normale Leute sondern nur für Enthusiasten für die Geld keine Rolle spielt.

Aber ein Desktop auf Leistung eines AMD Ryzen 5 2600X mit GeForce GTX 1660 Ti 6GB für 329€, ein Desktop auf Leistung eines Intel Core i5-8600K mit GeForce RTX 2060 6 GB für 379€, ein Crossover-Notebook auf Leistung eines Ryzen 5 3580U für 429€ und ein Subnotebook auf Leistung eines Core i5-8265U für 489€ dürften noch immer sehr begehrt sein.
Ergänzung ()

SaschaHa schrieb:
Zum aktuellen Zeitpunkt halte ich Raytracing auch noch für eine Spielerei, allerdings gibt es schon einige Titel, in denen es einen gewissen "Wow"-Effekt auslöst, beispielsweise bei Cyberpunk. Und auf DLSS würde ich auch nicht mehr verzichten wollen, insbesondere nicht auf (M)FG.

Ich kann die Kritik durchaus verstehen, nur würde es ohne Raytracing irgendwann vermutlich kaum noch einen grafischen Fortschritt geben, oder dieser wäre mit einem enormen zusätzlichen Entwicklungsaufwand verbunden. Von daher finde ich die aktuelle Entwicklung eigentlich recht nachvollziehbar.

Raytracing ist technisch schon sehr intressant, aber in der Praxis war es bei der Einführung auf einem Intel Core i5-8600K mit einer GeForce 2060 6GB null bauchbar, und ist heute mit einem Core i5-13600KF oder i5-14600KF oder auch Ryzen 5 9600X jeweils in einer Kombination mit einer GeForce RTX 4060 Ti 8GB noch immer kaum brauchbar weil dann selbst bei FHD oder FWHD die FPS so sehr in den Keller gehen das es keinen Spass mehr macht.

Wenn man sich mal an einen Core Ultra 9 285K oder Ryzen 7 9800X mit einer GeForce RTX 4080 Super 16GB setzen darf ist es natürlich schon ein Wow-Moment. Aber nur solange man nicht dran denkt was so ein Setup kostet.
 
Zuletzt bearbeitet:
Martyn schrieb:
Meine Erwarungshaltung wäre von Generation zu Generation entweder:
ca. 40-55% mehr Leistung bei unveränderte Leistungsaufnahme
Dann dürfte es nur noch alle 5-6 Jahre eine neue Generation geben, wenn überhaupt. Die Geschichte ist nun mal tot und die Chipfertigung zu nah an die physikalischen Grenzen angerückt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SaschaHa und TomH22
Martyn schrieb:
Meine Erwarungshaltung wäre von Generation zu Generation entweder:

ca. 40-55% mehr Leistung bei unveränderte Leistungsaufnahme
oder
ca. 40-55% weniger Leistungsaufnahme bei unveränderter Leistung
oder
ca. 25-32% mehr Leistung bei 12-25% weniger Leistungsaufnahme

Letztere Variante wüde ich eigentlich als das Optimum ansehen.

Wann gab es das denn so in der Form?

Die Leistungsaufnahme ist in den letzten 40 Jahren konstant gestiegen und gleichzeitig sind die CPUs um knapp 20% schneller geworden im Mittel.
 
JumpingCat schrieb:
Wann gab es das denn so in der Form?

In den 1990ern, da sogar noch mehr. Ich habe mir 1993 einen 66MHz 486DX/2 gekauft, dann 1995 einen drei mal schnelleren 133MHz Pentium, dann von 1998-2000 einen K6-2 300MHz, K6-2 500MHz, Athlon 800MHz, und Athlon 1200MHz. Da gab's jeweils Spruenge von >=50% schon alleine beim Takt, und die Mikroarchitektur hat sich von K6-2 zu Athlon auch noch einmal verbessert (und ein bisschen auch von K6-2 300 zu K6-2 500 CXT).

Die Leistungsaufnahme ist in den letzten 40 Jahren konstant gestiegen

Nicht im allgemeinen. Schon der Athlon 64 von 2003 hatte 89W TDP, das ist ziehmlich genau der Wert, den die nicht-Enthusiasten-CPUs von AMD heute als power limit (PPT) haben (und da die 2003 keine dynamischen Verbrauchslimits und als thermisches Limit hoechstens das thermische Drosseln und Notabschaltung hatten, waren die 89W wohl das, was die damals tatsaechlich maximal verbraucht haben). Bei den CPUs fuer die Enthusiasten, fuer die das Geld und der Verbrauch keine Rolle spielt, ist es aber tatsaechlich ordentlich bergauf gegangen, von 104W TDP fuer den Athlon 64 FX-55 (war also schon damals hoeher als die normalen Athlon 64) bis aktuell 230W PPT beim Ryzen 9950X. Wobei es sogar da gelegentlich ein bisschen in die andere Richtung geht, so hat der 7950X3D ein niedrigeres Power limit als der 7950X, aber die Tendenz geht schon nach oben.
 
mae schrieb:
In den 1990ern, da sogar noch mehr.
In dieser Zeit gab es einen Effekt namens Dennard Scaling
https://en.wikipedia.org/wiki/Dennard_scaling
der besagte dass die Leistungsdichte bei Verkleinerung des Strukturen gleich blieb.
Dadurch waren die enormen Fortschritte in kurzer Zeit möglich.

Um 2006 brach dieser Effekt zusammen, was Intel sehr schmerzhaft mit Netburst erfahren musste.

Wenn nicht irgendeine unbekannte technische Revolution passiert, wird es so einen Effekt nicht mehr geben.

Wer sich aber an diese Zeit erinnert (weil er alt genug ist) weiß, dass die Softwareentwicklung damals all diese Leistungsgewinnne aufgefressen hat. Damals musste man für jedes neue Release von Microsoft Office oder Corel Draw, etc. einen neuen Rechner kaufen….
 
  • Gefällt mir
Reaktionen: SaschaHa, mae und xexex
JumpingCat schrieb:
Wann gab es das denn so in der Form?

Die Leistungsaufnahme ist in den letzten 40 Jahren konstant gestiegen und gleichzeitig sind die CPUs um knapp 20% schneller geworden im Mittel.
Man kann natürlich immer drüber diskutieren was überhaupt eine Generation ist, weil es immer von einem Produktnamen verschiedene Untergenerationen mit eigenem Codenamen gab und man natürlich schon damals nicht jede Generation gekauft hat, sondern ein bisschen übersprungen hat, um es bezahlbar zu halten.

mae schrieb:
In den 1990ern, da sogar noch mehr. Ich habe mir 1993 einen 66MHz 486DX/2 gekauft, dann 1995 einen drei mal schnelleren 133MHz Pentium, dann von 1998-2000 einen K6-2 300MHz, K6-2 500MHz, Athlon 800MHz, und Athlon 1200MHz.
Meine Entwicklungsgeschichte meiner ersten vier Systeme damals: Pentium 60 -> Pentium 233 MMX -> Pentium III 450 -> Pentium IV 1300

Was ich in den beiden ersten Systemen für eine Grafikkarte hatte daran kann ich mich leider nicht mehr erinnern, aber beim Pentium III 450 war es eine ATI Rage Fury MAXX mit den zwei GPUs auf dem Board und beim Pentium IV 1300 war es eine Matrox Parhelia 512.

Für damalige Verhältnisse waren das schon zumindest Upper-Midrange Karten oder sogar High-End Karten, und trotzdem waren sie schön "klein und süss" ohne überdimensionale Lüfter und ohne zusätzliche Stromversorgung:

pc46.jpg
pc47.jpg


Wenn ich da dann heute an eine Nvidia GeForce RTX 4060 Ti 8GB denke ist die ja eher nur Lower-Midrange aber trotzdem ist selbst die Gainward GeForce RTX 4060 Ti Pegasus 8GB als kleinste und kompakteste Karte ziemlich massiv und braucht eine seperate Strompversorgung.

pc48.jpg

Damals haben wir Alle gedacht die Karten würden in Zukunft noch kleiner und kompakter werden statt grösser.

Wobei ich denke das es schon möglich heute noch so kompakte Karten herzustellen, denn bei den Notebookmodellen geht es ja auch.

Da kann ich dann auch gleich das Thema Netburst aufgreifen, die wurde ja später viel schlecht geredet, aber ich war damals mit meinem Pentium IV 1300 echt zufrieden.

Mag sein das sich gegenüber dem einem Pentium III-T oder III-S mit Tualatin der Fortschritt in Grenzen gehalten hat, und bei FPU-lastigen Sachen der Pentium IV sogar im Nachteil war. Aber man hat ja nicht jede Generation gekauft. Und ich kaum ja von einem Pentium III 450 Katmai und von da aus war es definitiv ein Fortschritt.

TomH22 schrieb:
Wer sich aber an diese Zeit erinnert (weil er alt genug ist) weiß, dass die Softwareentwicklung damals all diese Leistungsgewinnne aufgefressen hat. Damals musste man für jedes neue Release von Microsoft Office oder Corel Draw, etc. einen neuen Rechner kaufen….
Dafür hat die Software dann auch wirkliche Fortschritte gemacht, teilweise haben ja sogar schon Windows Me und Widows 2000 besser ausgesehen, aber das absolute Hoch waren dann eigentlich Windows XP und ganz besonders dann Windows Vista und Windows 7 mit Aero Glass. Von da an ging es bergab. Windows 8 war ja eine Vollkatastrophe und auch Windows 10 und 11 sehen ohne Drittanbietertools ziemlich platt aus.

Betrifft aber nicht nur Windows sondern auch Linux mit KDE, auch da finde ich haben scho KDE 2, KDE 3 und KDE 3 Trinity besser ausgesehen als KDE 4 Plasma, das ja ähnlich platt aussieht wie Windows 10 und 11.

Und selbst bei Smartphone Betriebssystemen sieht es so aus, iOS fand ich auch von iOS 7-17 ziemlich hässlich, und als deutlichen Rückschritt gegenüber iOS 6. Aber wenigstens wurde jetzt iOS 18 wieder etwas schöner.

Ich glaub wenn man damals jemanden Windows 10 oder 11 oder KDE 4 Plasma gezeigt hätte, würde man denken das wären Betriebssysteme für 386er.
 
Zurück
Oben