Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsIm Test vor 15 Jahren: Die GeForce 8800 Ultra zuckte und schwitzte im 3-Way-SLI
Ich glaub wir reden aneinander gehörig vorbei. Was dachtest du denn, was ich meine mit "Schade, dass multi GPU Systeme nicht weiter entwickelt wurden."? Das ist ja exakt das was ich meine. Schade, dass das nicht mehr weiter verfolgt wurde und deshalb heute nicht mehr unterstützt wird.
P.S. Aus einer 16 A Sicherung bekommst du etwa 3,75 kW, keine Ahnung was für einen Rechner du am Start hast oder was bei dir sonst noch alles an der Sicherung hängt, aber das wäre hetig, falls dir das nicht reicht. Den Backofen und das EAuto hängt man normalerweise an separate SIcherungen :-).
Ich auch, eine mit radial blower Lüfter und eine mit axial Lüftern. Das herumgefrickel mit den Treiber SLI Profilen und die Lautstärke vermisse ich ehrlich gesagt nicht. War aber trotzdem interessant das mal probiert zu haben.
Bei mir genauso. 1x Gigabyte Ref und einmal eine Zotac AMP!.
Gefühlt war das mit dem Treiber aber halb so wild, aber vllt. täusche ich mich auch nach der Zeit.
An den ursprünglichen Artikel erinnere ich mich noch sehr gut, als man 3 Grafikkarten brauchte um damit in Crysis halbwegs annehmbare Frameraten zu erreichen.
Bei mit gab es aufgrund des knappen Budgets nur eine HD3870 für das Game.
Und heutzutage mosern manche User rum wenn sie keine 144FPS in UHD auf Ultra Settings erreichen...
MFG Piet
Ein gutes GPU-Gespann gehört deshalb auch unter Wasser gesetzt. Und bitte nicht ganz wörtlich nehmen, also ich denke dabei natürlich an gute Kupferkühlblöcker für die einzelnen Karten, sodass neben dem Chips auch der RAM und die SpaWas gekühlt werden.
Irgendwie finde ich die Hardware in vielen Retro-Artikeln interessanter als moderne Hardware. Ich weiss nicht ob es daran liegt, dass keine Retro-Artikel ueber langweilige Hardware geschrieben werden, aber ich vermute ich finde die Hardware von damals einfach kreativer.
Heute ist vieles schon bekannt und man hat Verbesserungen im Chipdesign. Ansonsten geht es seit ein paar Jahren ja nur noch darum noch mehr Strom durch die Hardware zu jagen um den laengsten Balken zu haben.
Man ist halt einfach übersättigt, jahrelang gibt es nun schon diese Karten im Dual/tripple Slot Design. Das einzige was sich (optisch) ändert sind RGB Bling und das Design. Das Rad wird mittlerweile halt nicht mehr neu erfunden, am meisten ändert sich unter der Haube. Vor allem die 8000er GeForce und die Hd2000er Gens waren ja etwas besonderes hinsichtlich Technik und Optik. Der Mensch wird Innovationsmüde und die Sprünge müssen von Gen zu Gen größer werden um es noch als etwas besonderes anzuerkennen.
Habe meinen alten Q9450 auf dem Asus P5K Pro und einer ATI 3650 mal an ein Strommessgerät angeschlossen. Im idle (Windows 7 Desktop) zeigt es so ziemlich genau 100 Watt an. Netzteil ist ein 400 Watt bequiet Pure Power L7. Als Datenträäger dienen eine Crucial M4 SSD mit 64gb und eine 500gb Samsung HDD. Das System ist nicht übertaktet. Irgendwie erschreckend.
Ich hatte 2008 die 4870x2 zu meinem Geburtstag gekauft. Zu jedem Treiber musste man eine weitere Datei installieren, wo die Profile der jeweiligen Spiele drin war. Oder man hat die Game.exe umbenannt, man war das ein Gefrickel. Mafia 2 lief beim Autofahren wie ein Gummiband, bremsen /beschleunigen. Nach dem x. Treiber / Profil/ umbenennen ging es dann irgendwann. Wahrscheinlich habe ich mehr mit Optimieren des Spiels, als mit der Kampagne des Spiels verbracht.
Das ist einfach zu erklären: bis einschließlich DirectX 11.x gab es nie offiziellen Multi-GPU Support in der API. Das war ein einziges Getrickse und Gepfusche auf Treiberebene. Ein Aufwand den weder Nvidia noch AMD länger betreiben wollten. Erst mit DX12 und Vulkan hielt der Multi-GPU Support auf API Ebene offiziell Einzug!
Die Lösung für die Lautstärke war damals, den Rechner im Nachbarzimmer zu platzieren und durch ein Loch in der Wand die Kabel. Herrliche Ruhe und volle Leistung.
Immer wenn ich mir hier die Retro-Berichte über Dual-/Triple-/Quad-SLI/Crossfire durchlese, bin ich echt froh, dass ich diesen Mist nie mitgemacht habe.
Und immer wenn ich meine Graka aufrüsten möchte, bin ich echt traurig, das es für meine "alte", mit Wasserblock ausgerüstete Karte, keinen sinnvollen Anwendungsbereich im neuen Setup mehr gibt.
Warum gibt es bis heute keine sinnvolle Zweitverwertung für etwas ältere GPUs? Sollen sie halt irgendein Subsytem im Spiel berechnen und damit die Hauptkarte entlasten. Ausser in Form von dedizierten 'Physics-Karten' (anno dazumal) ist da nie was passiert. Warum eigentlich nicht?
Hätte man damals schon die sinnbefreite Einheit "fps/Watt" als Maß eingeführt, wäre Triple-SLI wahrscheinlich ein Effizienz-Wunder so wie die neuen GPU-Generationen heute
Das ist einfach zu erklären: bis einschließlich DirectX 11.x gab es nie offiziellen Multi-GPU Support in der API. Das war ein einziges Getrickse und Gepfusche auf Treiberebene.
Nein, das war es eigentlich nicht. Ich kenn es von AMD, die hatten extra eine API-Erweiterung angeboten, über die man alles bzgl. Crossfire regeln konnte: Von der Abfrage der GPU-Konfiguration auf einem System bis hin zu diversen Synchronisierungs-Einstellungen zwischen den Karten war alles möglich. Man musste es nur nutzen (also der Entwickler bzw. das Entwicklerstudio).