Warum sind Grafikkarten in ihrer Leistung limitiert?

M.B.H.

Commander
Registriert
Dez. 2006
Beiträge
2.216
Warum sind Grafikkarten eigentlich immer limitiert, also warum gibt es keine Karten die doppelt oder vier mal so viele Transistoren haben, dann spart man sich SLI (und dessen Probleme).
Oder vielleicht sogar Modular, dass man wie nen Ram Baustein XX Transistoren dazu stecken kann und man so die Leistung quasi beliebig erhöhen kann (bis alle Slots voll sind)? Könnten die sich ja gut bezahlen lassen, ja, aber dann wäre man nicht so extrem beschränkt in der Leistung, gerade bei sehr hungrigen VR-Games.
Oder gäbe es da technische Hürden/Probleme?
 
Warum fährt dein Auto nicht mit Lichtgeschwindigkeit?
 
  • Gefällt mir
Reaktionen: schmedd9r, TheRealSutefan, Kalsarikännit und 15 andere
würde es gehen das man das macht wie du es so beschreibst, hätten sie es schon so gemacht.

@simoron autovergleiche sind nicht gut. da sind andere faktoren im spiel als bei elektrotechnik.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: piepenkorn
Fertigung, Chipgröße und Ausbeute bei der Produktion außerdem skaliert die Geschwindigkeit nicht 1:1 nur weil man mehr Shader drauf knallt, das ganze Design muss schon stimmig sein für die gewünschte Geschwindigkeit.
Kühlung und Leistungsaufnahme wären dann auch noch Faktoren die mitspielen müssen.
RAM dazu stecken? Bei der Geschwindigkeit kannst du keinen Sockelnehmen die Strecken müssen präzise sein und ein Sockel würde sogar Übergangswiderstände mit einbringen der absolute Supergau.

Die Frage ist aber schon lustig, warum hat mein Auto nicht unendlich PS?
Warum haben wir keine Fusionsenergie ? ... tja ..

Es gibt da noch die Hoffnung, dass AMD vielleicht was mit der IF zaubert, mehrere Chiplets über IF verbinden wie in der VEGA Karte vom Mac Pro aber ob es dann als ein Chip behandelt wird oder wieder so eine Missgeburt ala SLI / Crossfire wird mit all den Nachteilen ?! Wir werden sehen.
 
  • Gefällt mir
Reaktionen: M.B.H., raphe und Baal Netbeck
M.B.H. schrieb:
Oder vielleicht sogar Modular, dass man wie nen Ram Baustein XX Transistoren dazu stecken kann und man so die Leistung quasi beliebig erhöhen kann
Wir doch gemacht. Nennt sich "Supercomputer" die Dinger sind (vereinfacht gesagt) nur X Module/CPUs zusammengesteckt bis man die gewünschte Rechenleistung hat.
 
  • Gefällt mir
Reaktionen: M.B.H., Dandelion, aklaa und 2 andere
Weil ein solches Produkt wesentlich mehr Energie benötigen würde, ungöeich größer und teuerer wäre und zwar nicht nicht nur allein wegen des Mehrs an GPU-Masse ( mehr Spanungswandeler und wesentlich mehr Kühlkörper). Ich bezweifle, dass man (ATX-tauglich) die Abwäre von sagen wir ca. 800 Watt von so einem verglw. kleinen Bauteil sinnvoll abführen kann.
 
  • Gefällt mir
Reaktionen: M.B.H.
So dumm ist der Autovergleich auch wieder nicht.

Nimm den Bugatti Veyron. Der hatte so viel Kraft im Motor, das denen am Anfang das Getriebe verreckt ist. Mit noch mehr Kraft im Motor, wäre das Ding dann auch nicht schneller geworden.
Auf der anderen Seite gibt es Autos mit deutlich mehr PS als der Veyron mit ca. 1200, die mit z.B. 1500 PS trotzdem keine 400 km/h hinbekommen.

Wenn deine Graka nun einen Chip mit doppelt so vielen Transistoren hätte, wäre, wie oben schon geschrieben, nicht nur die Ausbeute schlechter und der Chip viel teurer, sondern auch die ganze Peripherie drum herum aufwändiger. Auch das wurde schon geschrieben: Es muss alles zusammen passen!
Alle Komponenten müssen zusammen verbunden werden, damit sie interagieren können.
Und am Ende muss es jemand bezahlen.
Als Kompromiss gibt es ja die Doppelchip-Karten, die dann mit den ähnlichen Nachteilen wie SLI/Crossfire daherkommen.
Oder im großen Maßstab die genannten Supercomputer, weil die offensichtlich einfacher zu handhaben sind, als "einfach" größere Chips zu bauen ;)
 
  • Gefällt mir
Reaktionen: M.B.H.
warum hat deine kamera eine nichtunendliche empfindlichkeit?
warum hat deine kamera eine nichtunendliche auflösung?
warum hat die speicherkarte in deiner kamera nicht unendlich viel kapazität?
warum hält der akku deiner kamera nur eine begrenzte zeit?
.
.
.
warum werden wir nicht unendlich alt? / warum sind wir nicht unendlich gesund?
warum haben wir nicht unendlich viel budget für unsere spielzeuge?
 
Das es bei technischer Leistung immer irgendwelche Hürden und Limits gibt dürfte doch wohl jedem einleuchten der mehr als 1 Sekunde drüber nachdenkt.

Um auf deine Beispiele ein zu gehen:

Enorm große Chips:
Hier wäre zum einen die Ausbeute unterirdisch schlecht, da die Wahrscheinlichkeit einen fehlerhaften Chip teuer produziert zu haben mit der Größer logischerweise auch ansteigt. Und wer kauf schon bitte eine 10.000€ Gaming Grafikkarte?
Des weiteren würde mit der Größe der Stromverbrauch entsprechend ansteigen. Und wenn man dann 1000 Watt weg kühlen will brauch man entsprechend starke und vor allem große Kühler. Hallo 7 Slot Design.. du wolltest doch eh keine anderen PCI-E Karten nutzen oder? Ach ja und bitte ein zweites Netzteil einbauen.

Modulares Design:
Das sockelbare Prinzip hast du ja schon mit SLI/Crossfire. Und wie gut das funktioniert ist ja bekannt.
Sockelbar auf einer einzelnen Karte dürfte quasi nicht möglich sein. Es müsste z.B. von vornherein die Spannungsversorgung auf den Maximalausbau ausgelegt sein. Nicht wirklich zielführend für jede geringere Konfiguration. Viel schwerwiegender stelle ich mir den Speicherzugriff vor. Mit auf den vorhanden Speicher zugreifen? Dürfte ziemlich schwierig sein, da hier Latenzen im Nanosekundenbereich wichtig sind. Von vornherein für jedes Modul Speicher installieren. Zu teuer und unnötig. Den Speicher auch noch Modular gestallten? Noch mehr Probleme die man bewältigen muss.
Der wahrscheinlichste Ansatz dafür wäre ein Chiplet Design wie AMD es bei Ryzen schon macht. Und auch das lief ja schon nicht ganz reibungslos vom Start weg da es alles etwas komplizierter machte. Keine Frage es wird besser, aber es ist auch eine zusätzliche Fehlerquelle. Ich gehe auch tatsächlich davon aus das AMD versucht das Prinzip für Grafikkarten anzuwenden, die Probleme bei der Umsetzung hier aber größer sind.
Bei der Chiplet Variante hättest du als Endkunde aber trotzdem das selbe Szenario wie heute auch. Du kaufst dir eine Grafikkarte die deinen Ansprüchen und Budget entspricht und diese Leistung behielte sie bis zum Exitus. Die Vorteile der günstigern Fertigung könnte der Hersteller natürlich an den Endkunden weitergeben, mehr aber auch nicht.


Edit:
Bei den übergroßen Chips kommt als Problem übrigens noch hinzu das die Signalwege innerhalb des Chips auch länger werden und so mit die Latenzen innerhalb des Chips steigen. das selbe gilt für Latenzen zu den Speicherchips, die von von verschiedenen Teilen der GPU verschieden weit weg sind. Je größer die Unterschiede werden um so problematischer das ganze.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: M.B.H., Demon_666, ghecko und 2 andere
whats4 schrieb:
warum hat deine kamera eine nichtunendliche empfindlichkeit?
...
Oder: Warum ist die Banane krumm?! Weil niemand in den Dschungel zog, und die Banane gerade bog.

btt: Physikalisch-technische Grenzen.
 
  • Gefällt mir
Reaktionen: M.B.H. und areiland
der TE ist photograph.
drum vermutete ich, daß er die absurdität der frage besser erfasst, wenn man es auf die kamera anwendet.
 
  • Gefällt mir
Reaktionen: M.B.H. und Dandelion
Naja, ich denke mir das es eher finanzielle Aspekte hat, dass man keine Karten mit wechselbaren Chips/Speicher herstellt.

So einfach mal als Gedanke: Auf einem Board ist dann noch ein Slot für die GPU und dafür dann noch ein oder zwei Rambänke für eben Diese.

Ich glaube es gab auch schon Grafikkarten wo man den Speicher erweitern konnte.
 
Es wurden ja schon gute Gründe genannt...mir fällt auch einer ein.

Kommunikations Latenzen.

Wenn du einen riesen Chip baust, ist der A nicht sinnvoll zu fertigen....würde unglaublich teuer werden wegen der schlechten Ausbeute.

Dann ist der schlecht zu kühlen und die Signallaufzeiten werden immer länger.

Für spiele brauchst du ja eine schnelle Bearbeitung in Echtzeit... riesen Chips oder zwei Chips verbringen zu viel Zeit mit warten, wenn sie am gleichen frame rechnen.
Und SLI/Crossfire umgeht das indem jeder Chip einen anderen frame berechnet, was aber große Probleme macht, diese abzustimmen...es hilft dir ja nix, wenn beide frames praktisch das gleiche rechnen...super kurz hintereinander fertig werden und dann eine lange Pause kommt bis wieder zwei gleiche fertig werden.
Inzwischen werden die ganz gut gleichmäßig ausgegeben, aber oft ist der Inhalt nicht zeitlich gleichmäßig...du hast also wenig Vorteile und viele Nachteile.

In compute anwendungen ist das kein Problem, weshalb man da einfach ganz viele Grafikkarten nutzt und um Platz zu sparen auch dual GPU Karten.

Ich denke schon, dass wir in Zukunft Multichip Designs sehen werden. Aber nicht um die Leistung ins unendliche zu steigern, sondern um Kosten zu sparen.

Mehrere kleine Chips, die man günstiger produzieren und besser binnen kann könnte man auf einem intelligenten interconnekt Chip verbinden.

Also die gleiche Idee wie bei Zen2 mit den chiplets, wobei das bei CPUs weniger problematisch ist, wegen der Art der anfallenden Arbeit.

Aber da bräuchte man vermutlich eine ganz neue Art von Rendering... Man müsste die verschiedenen Arbeitsschritte so ändern, dass sie unabhängig laufen um sie auf mehrere spezialisierte Chips aufzuteilen.
Ob das überhaupt geht, weiß ich nicht, aber man hätte sicherlich keine gute Kompatibilität zwischen alten Spielen und dieser Technik und neuen Spielen und alten GPUs.....wird also nicht kommen.

Wenn dann eine halbgaren Lösung, die ihre eigenen Probleme hat....so wie die ryzen CPUs gut aber nicht perfekt sind.
 
  • Gefällt mir
Reaktionen: M.B.H. und Demon_666
M.B.H. schrieb:
Warum sind Grafikkarten eigentlich immer limitiert, also warum gibt es keine Karten die doppelt oder vier mal so viele Transistoren haben, dann spart man sich SLI (und dessen Probleme).
Kauf dir einen Supercomputer. Da kannst Du ohne Ende Grafikkarten dazustecken (modular)...
 
Dandelion schrieb:
Oder: Warum ist die Banane krumm?! Weil niemand in den Dschungel zog, und die Banane gerade bog.
Falsch! Eher, damit die gemeine in die EU eingeführte Banane in´s Tupper passt... und der gewöhnliche EU Bananenuser kein Schmadder im Aktenkoffer hat wenn es mal rumpelig wurde beim Transport.
796361
 
Baal Netbeck schrieb:
Aber da bräuchte man vermutlich eine ganz neue Art von Rendering... Man müsste die verschiedenen Arbeitsschritte so ändern, dass sie unabhängig laufen um sie auf mehrere spezialisierte Chips aufzuteilen.
Ob das überhaupt geht, weiß ich nicht, aber man hätte sicherlich keine gute Kompatibilität zwischen alten Spielen und dieser Technik und neuen Spielen und alten GPUs.....wird also nicht kommen.
Es kommt eben letzten Endes auch auf die Kombination von Soft- und Hardware an. Es wäre ein bißchen so wie anfangs bei den CPUs mit Multithreading: Da gab es auch Software, die mit Mutlithreading starke Leistungseinbußen hatten bzw. sogar abstürzten. Und selbst heute ist bei vielen Entwicklern das Thema immer noch Neuland oder wird stiefmütterlich behandelt...
 
  • Gefällt mir
Reaktionen: M.B.H.
Erweiterbare Karten gab es vor 20-30 Jahren zu ISA und PCI Zeiten, wo sich dann CoProzessoren, RAM und sowas nachrüsten ließ.
Durchgesetzt hat sich das aber nicht, einige Gründe wurden ja schon genannt.

Dazu lässt sich noch ergänzen, das Sockel im Consumerbereich die Produkte teurer machen, denn PCB, Kühler, etc. muss ja auch dazu passen und der Sockel selbst kostet auch nochmal.

Dafür hat man heutzutage sind größere Auswahl an Modellen mit unterschiedlichen Taktungen, Chipausbaustufen, Speicher, usw.
 
  • Gefällt mir
Reaktionen: M.B.H. und Baal Netbeck
Schaby schrieb:
So einfach mal als Gedanke: Auf einem Board ist dann noch ein Slot für die GPU und dafür dann noch ein oder zwei Rambänke für eben Diese.

Ich glaube es gab auch schon Grafikkarten wo man den Speicher erweitern konnte.
Ja, aber nur für den Computer Bereich, wo man eine Art "Überlauf Cache" dazu setzen kann. Der ist dann nicht direkt an der Berechnung beteiligt sondern speichert nur vorher benutzte Daten, die aus den eigentlichen VRam geflogen sind, um sie schneller wieder bereitstellen zu können.
Sowas ist nicht schlecht, aber als reine VRam Erweiterung nicht sinnvoll.
GPUs brauchen extrem viel Bandbreite.... Ein DDR4 Slot ist mit 64 Bit angeschlossen...Dual Channel also 128...da kommt man mit schnellem RAM auf 50GB/s....erst mit OC mehr.

So eine Vega GPU war mit 484 GB/s im Bandbreitenlimit....was will die mit 50GB/s?
Selbst Quadchannel ist da nicht ausreichend.

Und ein riesen Platz Problem....und Minisockel, wo man nur einzelne Chips einsetzt, sind auch nicht sinnvoll...selbst wenn so Sockel kein Problem wären, dann müsste man alle Sockel belegen um die volle Bandbreite zu haben und für eine größere Kapazität hätte man nur die Wahl von 1GB zu 2GB Chips.
Also z.B. 8 oder 16GB auf der Karte....so wirklich viel Entscheidungsvielfalt ist das dann nicht....da kann ich auch gleich eine Profi karte mit 16 oder 32 GB kaufen.
 
Zuletzt bearbeitet:
M.B.H. schrieb:
Warum sind Grafikkarten eigentlich immer limitiert, also warum gibt es keine Karten die doppelt oder vier mal so viele Transistoren haben, dann spart man sich SLI (und dessen Probleme).

Das einzigste was ich sehe ist das man sich nicht informiert hat bevor man Posts erstellt.

Vodoo 5 z.b. hatte schon 4 Chips kam nur zu spät um einzuschlagen.

Weiterhin die Größe auf so einem Grafikboard sind auch begrenzt da kann man nicht einfach mal ein DIE drauf hauen was 8x so groß ist.

und irgendwas Limitiert immer .... man kann nicht im vorraus planen wie groß alles sein muss.

Die Entwicklung in Direct X hast auch nicht beachtet ... welche Unterschiede da zwischen 5, 7 , 9, 10 und 12 so gibt.

Auch nicht überlegt hast du das man auch was verkaufen muss ... und das auch gerne öfters ... und nicht einmal das perfekte baut dann zu teuer ist und am Ende gar nix verkaufen kann. Ganz zu schweigen von der Entwicklungszeit.

Weiterhin wird es nicht die perfekte Grafikkarte geben ... da immer bessere Fertigungsmethoden auf den Markt kommen und somit dort auch viel sich ändert.

P.S. und morgen kommt die Frage warum sind CPU´s immer Limitiert ... und haben nicht 200 Kerne und einen Takt von 50 Terrahertz..
 
Zurück
Oben