Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Nvidia hält an Multi-GPU fest und weitere Trends
- Ersteller Wolfgang
- Erstellt am
- Zur News: Nvidia hält an Multi-GPU fest und weitere Trends
moehrensteiner
Cadet 4th Year
- Registriert
- Apr. 2005
- Beiträge
- 97
Wenn Nvidia nicht ganz schnell auch auf den absolut notwendigen Stromsparzug aufspringt, dann kann mir Nvidia zukünftig erspart bleiben!!!So eine dumme Aussage von max. 200 W und dass bei den heutigen Stromkosten, die ganz sicher nicht wieder sinken werden, im Gegenteil. Tock,tock,tock!!!???
Dringend gefordert sind auch die Treiberarchitekten bei Nvidia, damit endlich treiberseits gescheite 2D-Stromsparmodi implementiert werden, nicht nur für die Low-Cost-Segmente, nein auch gerade für alle HighEnd-Karten, gerade die haben einem Stromsparmodus in 2D extrem nötig, da ist ATI viel, viel weiter.
Dringend gefordert sind auch die Treiberarchitekten bei Nvidia, damit endlich treiberseits gescheite 2D-Stromsparmodi implementiert werden, nicht nur für die Low-Cost-Segmente, nein auch gerade für alle HighEnd-Karten, gerade die haben einem Stromsparmodus in 2D extrem nötig, da ist ATI viel, viel weiter.
Ich kann mich noch gut erinnern als Nvidia genau das Gegenteil gesagt hat.
Multi-GPUs wären nicht die Zukunft, sondern stattdessen schnelle EinzelGPUs.
Das war kurz vor der Veröffentlichung der HD3870X2.
So schnell kann sich die Meinung wieder ändern... eigentlich egal was die Hersteller sagen,
irgendwann dementieren sie vieles sowieso wieder...
Multi-GPUs wären nicht die Zukunft, sondern stattdessen schnelle EinzelGPUs.
Das war kurz vor der Veröffentlichung der HD3870X2.
So schnell kann sich die Meinung wieder ändern... eigentlich egal was die Hersteller sagen,
irgendwann dementieren sie vieles sowieso wieder...
Kasmopaya
Banned
- Registriert
- Mai 2007
- Beiträge
- 12.285
@coupefx2
Für die "grünen" halte ich doch immer gerne die Flagge hoch.
Spass beiseite. Man muss zur Verteidigung der 200W max. Karten schon sagen das sie den immer größer werdenden VRAM auch mit versorgen müssen. Das fällt bei der CPU komplett weg, die auch wieder Richtung 130W-140W gehen im High-End.
Des weiteren hat eine GPU eine extrem hohe Watt/Performance auf ihrem spezialisierten Gebiet(CUDA wird da bald teilweise Abhilfe schaffen).
Möchte aber trotzdem nicht über ein 550-600W Netzteil gehen.
Für die "grünen" halte ich doch immer gerne die Flagge hoch.
Spass beiseite. Man muss zur Verteidigung der 200W max. Karten schon sagen das sie den immer größer werdenden VRAM auch mit versorgen müssen. Das fällt bei der CPU komplett weg, die auch wieder Richtung 130W-140W gehen im High-End.
Des weiteren hat eine GPU eine extrem hohe Watt/Performance auf ihrem spezialisierten Gebiet(CUDA wird da bald teilweise Abhilfe schaffen).
Möchte aber trotzdem nicht über ein 550-600W Netzteil gehen.
Zuletzt bearbeitet:
florymonth
Ensign
- Registriert
- Feb. 2008
- Beiträge
- 129
Kasmopaya schrieb:Na da bin ich ja beruhigt, das der Verbrauch nicht über 200W pro Karte! gehen soll.
Solange es Microruckler gibt halte ich von SLI überhaupt gar nix.
Immer diese Mickrorucklerdiskussion.Die gibts doch eh nur,wenn die Fpsrate unter 30 sinkt.
Solange es keine vernünftige Unterstützung (in den Games und beim Treiber) gibt macht SLI/Crossfire nicht wirklich viel sinn... ausser man möchte irgendwie 4 oder 6 Bildschirme gleichzeitig anschliessen
Aber ich denke nVidia und auch ATi werden das mit den Treibern schon noch hinbekommen und dann lege ich mir auch eine zweite Karte zu
Naja mal schauen was die Zukunft bringt würde ich mal sagen... vielleicht überrascht uns ein Dritter?
Aber ich denke nVidia und auch ATi werden das mit den Treibern schon noch hinbekommen und dann lege ich mir auch eine zweite Karte zu
Naja mal schauen was die Zukunft bringt würde ich mal sagen... vielleicht überrascht uns ein Dritter?
I
Intel@freak
Gast
Nvidia ist dabei eine graka auf dem markt zuwerfen mit Raytracing und das rendern von Heute zusammen.
sie wollen beides kombinieren auf einer grafikkarte.
man arbeite mit sis zusammen aus diesem grunde.das habe ich in einem interview gelesen/gehört. nur alleine raytracing das wird nichts. das auto braucht auch benzin nur mit benzin kann man nicht fahren .
sie wollen beides kombinieren auf einer grafikkarte.
man arbeite mit sis zusammen aus diesem grunde.das habe ich in einem interview gelesen/gehört. nur alleine raytracing das wird nichts. das auto braucht auch benzin nur mit benzin kann man nicht fahren .
M
McNoise
Gast
2) "Grundsätzlich sehe ich es als einen Fortschritt an, die Last auf kleine Chips, die insgesamt günstiger zu Fertigen sind, als ein großer."
was heisst denn fortschritt ... das wird doch schon jahrzehnte so praktiziert. man denke da populärer weise bspw. an den Amiga in den 80ern mit custom-chips für audio ("Paula") & grafik ("Denise") ...
was heisst denn fortschritt ... das wird doch schon jahrzehnte so praktiziert. man denke da populärer weise bspw. an den Amiga in den 80ern mit custom-chips für audio ("Paula") & grafik ("Denise") ...
Berserkervmax
Banned
- Registriert
- Apr. 2004
- Beiträge
- 3.118
Na dann hoffe ich mal das die Microruckler auch optimiert werden wenn es in Zukunft immer mehr Multi GPUs geben wird.
Denn was nützt die ganze Grafikpower wenn es dann doch "irgentwie" ruckelt.
Ich selber habe SLI und es nervt hier und da schon.
Denn was nützt die ganze Grafikpower wenn es dann doch "irgentwie" ruckelt.
Ich selber habe SLI und es nervt hier und da schon.
yurij
Lt. Commander
- Registriert
- Jan. 2008
- Beiträge
- 1.055
Für mich ist das noch nicht ersichtlich ob eine und dieselbe Grafikkarte gleichzeitig für Grafik- und Physikberechnungen genutzt werden kann. Damit meine ich diese neue CUDA Programmierschnittstelle mit PhysX. Hat da jemand schon mal was davon gehört?
Denn wenn nicht, dann macht es durchaus sinn, 2 Grafikkarten im SLI zu betreiben. So könnte man wählen ob man 2 x Rendering will oder 1 x Rendering + 1 x Physikberechnung.
Bei triple SLI wäre 2 x Rendering + 1 x Physik möglich.
Für mich persönlich als HTPC Nutzer komm höchstens normales SLI in Frage und das auch nur wenn Preis/Leistung/Geräuschpegel stimmt.
edit:
wenn ich ganz visionär in die zukunft schaue, kann ich mir vorstellen dass es möglichkeit geben wird grafikeinheiten nach aussen zu führen. die ersten versuche gabs in vergangenheit glaube ich schon. z.b. externe notebook grafikkarten.
der pci-express standard enhält doch noch die x32 Schnittstelle. Wenn man dann eine PCIe x32 auf mainboard verbaut hat man eine solide anbindung geschaffen dass auch sehr viele grafikkarten mit daten fütter kann. dann kauft sich der kunde x16 Karte und steck in sein pc rein. x16 im x32 slot geht ja. wenn er dann mehr leistung haben will: kauft er eine zweite, ... eine dritte... von mir aus 8! Grafikkarten. Dazu ein spezielles externes gehäuse mit Steuerungselektronik dass die 8 PCIe x16 Grafikkarten aufnehmen kann. Das externes Gehäuse (ähnlich wie "Tesla") hat dann eigene stabile stromversorgung und geeignete monsterkühlungen, von mir aus mit frion oder flüssigen stickstoff. Ein Controller sorgt in diesem Hexa-SLI Cube für die Kommunikation zwischen den Grafikkaretn. In den PC baut man noch zusätzlich eine Spezielle PCIe x 32 Replikatorkarte, welche die 32 Lanes nach Aussen zum Hexa-SLI Cube führt. Die PCIe Latenz wird zwar spürbar steigen, aber hey: wir haben acht! Grafikkarten und 32 Lanes! Ausserdem wenn die Grafikkarten ausreichend viel Speicher haben und die Texturen in den dedizierten VRAM geladen sind, müssen nur noch Steuerbefehle durch die 32 Lanes düsen, dafür sollte die mehr als ausreichen.
Auf so einem Monster geht dann Crysis 3 richtig ab. Auch für Raytracing ein traum. Wer das nötige kleingeld für 8 Grafikkarten und die Stromrechnung hat, wird sich sowas gerne zulegen. Aber sonst hätte man keine großen Probleme mit Kühlung und Stromversorgung. Außerdem kann ein solches System nach und nach aufgerüstet werden, ohne gleich einen rießigen Betrag zu zahlen. Nur der Cube selbst dürfte nich ganz so billig sein, es enthält immerhin etwas Elektronik, Netzteil und Kühlvorrichtungen.
Theoretisch könnte man sogar Notebooks daran anschließen, auch wenn mit nur x16 Lanes (glaube nicht dass 32 Lanes bei Notebooks problemlos möglich sind.)
Glaube nicht dass die Frage "Wer das braucht?" hier zutrifft. Es gibt genug Abnehmer, dennen die Leistung nie genug ist. Und wenn man wissentschafliche Berechnungen auf ein 2000€ teueres Cube verlagern kann, der die Rechenleistung eines 100.000 € teueren Meinframes hat, dann werden die Kunden die Tür reinrennen. Auch Gamer mit viel Geld gibt es genug.
Nvidia sollte vielleicht eine eigene Architektur daraus machen... x87 oder so
Denn bald werden Intel Prozessoren höchstens dafür gut sein, um die Nvidia Grafikkarten mit Rechenarbeit zu versorgen *grins*
Dann muss Intel bei Nvidia und nicht umgekehrt die x87 Lizenzen einkauffen!
edit2: interessant ob AES etc. knackalgorithmen auf so ein Tesla verlagert werden können. Dann könnte das Knacken von 256bit stakten Schlüsseln, was bis jetzt nur geheimdiensten vorbehalten war, in greifbare nähe füf hobby-hacker gruppen rücken.
Denn wenn nicht, dann macht es durchaus sinn, 2 Grafikkarten im SLI zu betreiben. So könnte man wählen ob man 2 x Rendering will oder 1 x Rendering + 1 x Physikberechnung.
Bei triple SLI wäre 2 x Rendering + 1 x Physik möglich.
Für mich persönlich als HTPC Nutzer komm höchstens normales SLI in Frage und das auch nur wenn Preis/Leistung/Geräuschpegel stimmt.
edit:
wenn ich ganz visionär in die zukunft schaue, kann ich mir vorstellen dass es möglichkeit geben wird grafikeinheiten nach aussen zu führen. die ersten versuche gabs in vergangenheit glaube ich schon. z.b. externe notebook grafikkarten.
der pci-express standard enhält doch noch die x32 Schnittstelle. Wenn man dann eine PCIe x32 auf mainboard verbaut hat man eine solide anbindung geschaffen dass auch sehr viele grafikkarten mit daten fütter kann. dann kauft sich der kunde x16 Karte und steck in sein pc rein. x16 im x32 slot geht ja. wenn er dann mehr leistung haben will: kauft er eine zweite, ... eine dritte... von mir aus 8! Grafikkarten. Dazu ein spezielles externes gehäuse mit Steuerungselektronik dass die 8 PCIe x16 Grafikkarten aufnehmen kann. Das externes Gehäuse (ähnlich wie "Tesla") hat dann eigene stabile stromversorgung und geeignete monsterkühlungen, von mir aus mit frion oder flüssigen stickstoff. Ein Controller sorgt in diesem Hexa-SLI Cube für die Kommunikation zwischen den Grafikkaretn. In den PC baut man noch zusätzlich eine Spezielle PCIe x 32 Replikatorkarte, welche die 32 Lanes nach Aussen zum Hexa-SLI Cube führt. Die PCIe Latenz wird zwar spürbar steigen, aber hey: wir haben acht! Grafikkarten und 32 Lanes! Ausserdem wenn die Grafikkarten ausreichend viel Speicher haben und die Texturen in den dedizierten VRAM geladen sind, müssen nur noch Steuerbefehle durch die 32 Lanes düsen, dafür sollte die mehr als ausreichen.
Auf so einem Monster geht dann Crysis 3 richtig ab. Auch für Raytracing ein traum. Wer das nötige kleingeld für 8 Grafikkarten und die Stromrechnung hat, wird sich sowas gerne zulegen. Aber sonst hätte man keine großen Probleme mit Kühlung und Stromversorgung. Außerdem kann ein solches System nach und nach aufgerüstet werden, ohne gleich einen rießigen Betrag zu zahlen. Nur der Cube selbst dürfte nich ganz so billig sein, es enthält immerhin etwas Elektronik, Netzteil und Kühlvorrichtungen.
Theoretisch könnte man sogar Notebooks daran anschließen, auch wenn mit nur x16 Lanes (glaube nicht dass 32 Lanes bei Notebooks problemlos möglich sind.)
Glaube nicht dass die Frage "Wer das braucht?" hier zutrifft. Es gibt genug Abnehmer, dennen die Leistung nie genug ist. Und wenn man wissentschafliche Berechnungen auf ein 2000€ teueres Cube verlagern kann, der die Rechenleistung eines 100.000 € teueren Meinframes hat, dann werden die Kunden die Tür reinrennen. Auch Gamer mit viel Geld gibt es genug.
Nvidia sollte vielleicht eine eigene Architektur daraus machen... x87 oder so
Denn bald werden Intel Prozessoren höchstens dafür gut sein, um die Nvidia Grafikkarten mit Rechenarbeit zu versorgen *grins*
Dann muss Intel bei Nvidia und nicht umgekehrt die x87 Lizenzen einkauffen!
edit2: interessant ob AES etc. knackalgorithmen auf so ein Tesla verlagert werden können. Dann könnte das Knacken von 256bit stakten Schlüsseln, was bis jetzt nur geheimdiensten vorbehalten war, in greifbare nähe füf hobby-hacker gruppen rücken.
Zuletzt bearbeitet:
florymonth
Ensign
- Registriert
- Feb. 2008
- Beiträge
- 129
yurij schrieb:Für mich ist das noch nicht ersichtlich ob eine und dieselbe Grafikkarte gleichzeitig für Grafik- und Physikberechnungen genutzt werden kann. Damit meine ich diese neue CUDA Programmierschnittstelle mit PhysX. Hat da jemand schon mal was davon gehört?
Alle 8800 bekommen ein Treiberupdate,mit dem sie Physix ausführen.(gleichzeitig mit den Grafikberechnungen)
BessenOlli
Banned
- Registriert
- Dez. 2001
- Beiträge
- 2.314
Das wundert mich doch sehr, dass nVidia so tut, als bräuchten CPUs in absehbarer Zeit Hilfe von der Grafikkarte, um Dinge wie KI und Physik zu berechnen.
Die CPUs sind derzeit sogar so stark, dass nVidia sich lieber Sorgen machen sollte, was in ein paar Jahren passiert, wenn es möglich wird, Raytracing auf einer normalen CPU in Echtzeit zu rendern.
Aber vielleicht setzt nVidia ja auch gerade aus diesem Grund darauf, Grafikkarten zu Allroundern machen zu wollen...?
Die CPUs sind derzeit sogar so stark, dass nVidia sich lieber Sorgen machen sollte, was in ein paar Jahren passiert, wenn es möglich wird, Raytracing auf einer normalen CPU in Echtzeit zu rendern.
Aber vielleicht setzt nVidia ja auch gerade aus diesem Grund darauf, Grafikkarten zu Allroundern machen zu wollen...?
wursti_00
Ensign
- Registriert
- März 2008
- Beiträge
- 201
ja sicherlich is sli toll, aber die tatsache das die treiber mit mehreren karten kaum bei spielen klarkommen is schon mist... und multi gpu find ich auch nicht so toll...
wirklich?
Ich habe 2 Grafikkarten im SLI, und bis jetzt noch nie erlebt, dass "die Treiber kaum bei Spielen klarkommen".
florymonth
Ensign
- Registriert
- Feb. 2008
- Beiträge
- 129
BessenOlli schrieb:Die CPUs sind derzeit sogar so stark, dass nVidia sich lieber Sorgen machen sollte, was in ein paar Jahren passiert, wenn es möglich wird, Raytracing auf einer normalen CPU in Echtzeit zu rendern.
Gpus "raytracen" aber weit besser als Mehrkerncpus...
Kottenpipel
Lt. Commander
- Registriert
- Apr. 2008
- Beiträge
- 1.186
GameStar meint, sowohl AMDals auch nVidia könnten bald pro Generation nur noch einen Chip entwickeln, also 1 Chip: Low end 2Chips: Mainstream und 4 Chips High End.
Aber nach dem, was hier geschrieben wurde, scheint, wenn überhaupt, nVidia so etwas zu planen.
Fänd ich schön, würd nVidia dann dem Größenwahn anheimfallen und AMD einfach schnelle GraKas bauen.
Von Intel will ich gar nicht erst reden...
Aber nach dem, was hier geschrieben wurde, scheint, wenn überhaupt, nVidia so etwas zu planen.
Fänd ich schön, würd nVidia dann dem Größenwahn anheimfallen und AMD einfach schnelle GraKas bauen.
Von Intel will ich gar nicht erst reden...
yurij
Lt. Commander
- Registriert
- Jan. 2008
- Beiträge
- 1.055
um den vergleich für manche etwas verständlicher zu machen (Teraflop = 1 Milliarde Fließkommaoperationen pro Sekunde):
G92 GPU = 1 Teraflop Rechenleistung
Intel Core 2 Duo = 0,046 Teraflop
Intel Quad = 0,09 Teraflop
erst mit 80 Kerne-Prototyp erreicht Intel 1 Teraflop
d.h ein Intel Quad ist 20 mal "schwächer" als Geforce 9800 GTX bzw 40 mal "schwächer" als 9800GTX2. Ein 8-Core Intel wäre somit . 160 mal schwächer als Hexa-SLI mit 9800GX2.
wie ihr sieht steckt in einer geforce sehr viel mehr rechenleistung als in einem je gebauten prozessor. das verdankt sie ihrer fast schon perversen parallelisierbarkeit. diese parallelisierbarkeit ist nur dank der sehr einfachen architektur möglich. allerdings lässt sich diese monsterpower auch nur dort einsetzen wo das algorithmus selbst parallelisierbar ist. es gibt algorithmen. z.b. fibonacchi berechnung, wo eine geforce abkackt und langsamer wird als ein Pentium III 500 MHz weil diese aufgabe garnicht parallelisierbar ist.
natürlich kommt gleich jemand und sagt: na, die geforce ist ein RISC und der Core ist ein CISC mit MMX SSE und pi pa po. ja das stimmt nun auch. im moment bleibt GPU GPU und CPU CPU, so sie sich prima ergänzen, aber wer weis was die zukunft bringt.........................
denke in zukunft alle triviale (einfachen) und nur wenig parallelisierbaren aufgaben (bis max 8-16 threads) auf der CPU bleiben und die grafikkarten erledigen die schwerparallelisierbaren sachen wie Raytracing, Videoencoding, Rendering, Physik und eventuell KI. Raytracing ist die Meisterdisziplin für die GPU, den wie ich oben schon schrieb wird GPU einfach 20 frames da rendern wo ne Intel Core max einen fps herkitzelt
G92 GPU = 1 Teraflop Rechenleistung
Intel Core 2 Duo = 0,046 Teraflop
Intel Quad = 0,09 Teraflop
erst mit 80 Kerne-Prototyp erreicht Intel 1 Teraflop
d.h ein Intel Quad ist 20 mal "schwächer" als Geforce 9800 GTX bzw 40 mal "schwächer" als 9800GTX2. Ein 8-Core Intel wäre somit . 160 mal schwächer als Hexa-SLI mit 9800GX2.
wie ihr sieht steckt in einer geforce sehr viel mehr rechenleistung als in einem je gebauten prozessor. das verdankt sie ihrer fast schon perversen parallelisierbarkeit. diese parallelisierbarkeit ist nur dank der sehr einfachen architektur möglich. allerdings lässt sich diese monsterpower auch nur dort einsetzen wo das algorithmus selbst parallelisierbar ist. es gibt algorithmen. z.b. fibonacchi berechnung, wo eine geforce abkackt und langsamer wird als ein Pentium III 500 MHz weil diese aufgabe garnicht parallelisierbar ist.
natürlich kommt gleich jemand und sagt: na, die geforce ist ein RISC und der Core ist ein CISC mit MMX SSE und pi pa po. ja das stimmt nun auch. im moment bleibt GPU GPU und CPU CPU, so sie sich prima ergänzen, aber wer weis was die zukunft bringt.........................
denke in zukunft alle triviale (einfachen) und nur wenig parallelisierbaren aufgaben (bis max 8-16 threads) auf der CPU bleiben und die grafikkarten erledigen die schwerparallelisierbaren sachen wie Raytracing, Videoencoding, Rendering, Physik und eventuell KI. Raytracing ist die Meisterdisziplin für die GPU, den wie ich oben schon schrieb wird GPU einfach 20 frames da rendern wo ne Intel Core max einen fps herkitzelt
Zuletzt bearbeitet:
Man kann nur hoffen, dass CPU und GPU auch in Zukunft getrennt bleiben.
Das schöne am PC ist doch die Konfigurierbarkeit, genau das macht das System so einzigartig.
Wenn CPU und GPU vereinigt werden, was kommt als nächstes? Sicherlich kommt wer auf die Idee CPU/GPU ins Mainboard zu integrieren, dann wars das mit der Aufrüstbarkeit.
Allein von diesem Aspekt her wäre es schade wenn so die Zukunft aussehen sollte.
Das schöne am PC ist doch die Konfigurierbarkeit, genau das macht das System so einzigartig.
Wenn CPU und GPU vereinigt werden, was kommt als nächstes? Sicherlich kommt wer auf die Idee CPU/GPU ins Mainboard zu integrieren, dann wars das mit der Aufrüstbarkeit.
Allein von diesem Aspekt her wäre es schade wenn so die Zukunft aussehen sollte.
Blutschlumpf
Fleet Admiral
- Registriert
- März 2001
- Beiträge
- 20.344
Juhu, wir bleiben unter 200 Watt, wenn das mal kein Grund zur Freude ist.
Ähnliche Themen
- Antworten
- 11
- Aufrufe
- 2.908