News Im Test vor 15 Jahren: Die GeForce 8800 Ultra zuckte und schwitzte im 3-Way-SLI

SSD960 schrieb:
Wie soll das Heute funktionieren? Mit einem 32A Drehstrom Anschluß. Davon abgesehen das es die Spiele nicht mehr unterstützten...
Ich glaub wir reden aneinander gehörig vorbei. Was dachtest du denn, was ich meine mit "Schade, dass multi GPU Systeme nicht weiter entwickelt wurden."? Das ist ja exakt das was ich meine. Schade, dass das nicht mehr weiter verfolgt wurde und deshalb heute nicht mehr unterstützt wird.

P.S. Aus einer 16 A Sicherung bekommst du etwa 3,75 kW, keine Ahnung was für einen Rechner du am Start hast oder was bei dir sonst noch alles an der Sicherung hängt, aber das wäre hetig, falls dir das nicht reicht. Den Backofen und das EAuto hängt man normalerweise an separate SIcherungen :-).
 
1673700187863.png


what the fuck????? ich kann mich daran überhaupt nicht mehr erinnern. was zum teufel ist das echt?

holy shit......war das überall ähnlich? warum zum teufel hatte man 230w IM IDLE??? WARUM? WIESO??

heftig.
 
Simlog schrieb:
Ich hatte damals ein Gespann aus 2 GTX470, das war nicht mal so übel.
Ich auch, eine mit radial blower Lüfter und eine mit axial Lüftern. Das herumgefrickel mit den Treiber SLI Profilen und die Lautstärke vermisse ich ehrlich gesagt nicht. War aber trotzdem interessant das mal probiert zu haben.
 
Bei mir genauso. 1x Gigabyte Ref und einmal eine Zotac AMP!.
Gefühlt war das mit dem Treiber aber halb so wild, aber vllt. täusche ich mich auch nach der Zeit.
 
An den ursprünglichen Artikel erinnere ich mich noch sehr gut, als man 3 Grafikkarten brauchte um damit in Crysis halbwegs annehmbare Frameraten zu erreichen. :D
Screenshot 2023-01-14 135657.png

Bei mit gab es aufgrund des knappen Budgets nur eine HD3870 für das Game. :P

Und heutzutage mosern manche User rum wenn sie keine 144FPS in UHD auf Ultra Settings erreichen... :D
MFG Piet
 
  • Gefällt mir
Reaktionen: NMA, Oppagolf, polyphase und eine weitere Person
Dome87 schrieb:
Wobei das damals generell noch anders war. Selbst mit einer war man bei über 200 Watt. Moderne PCs verbrauchen im IDLE keine 50 Watt.
4090 Tuf + 5800x3d + mag x570s tomahawk max wifi + 850 Watt Platinum Seasonic Focus = 80 Watt
Und alle Stromspar Techniken an ...
 
  • Gefällt mir
Reaktionen: NMA und Dome87
cr4phh schrieb:
Ein Hoch auf Frischluftzufuhr;-)
Ein gutes GPU-Gespann gehört deshalb auch unter Wasser gesetzt. Und bitte nicht ganz wörtlich nehmen, also ich denke dabei natürlich an gute Kupferkühlblöcker für die einzelnen Karten, sodass neben dem Chips auch der RAM und die SpaWas gekühlt werden.
 
Axxid schrieb:
Irgendwie finde ich die Hardware in vielen Retro-Artikeln interessanter als moderne Hardware. Ich weiss nicht ob es daran liegt, dass keine Retro-Artikel ueber langweilige Hardware geschrieben werden, aber ich vermute ich finde die Hardware von damals einfach kreativer.
Heute ist vieles schon bekannt und man hat Verbesserungen im Chipdesign. Ansonsten geht es seit ein paar Jahren ja nur noch darum noch mehr Strom durch die Hardware zu jagen um den laengsten Balken zu haben.
Man ist halt einfach übersättigt, jahrelang gibt es nun schon diese Karten im Dual/tripple Slot Design. Das einzige was sich (optisch) ändert sind RGB Bling und das Design. Das Rad wird mittlerweile halt nicht mehr neu erfunden, am meisten ändert sich unter der Haube. Vor allem die 8000er GeForce und die Hd2000er Gens waren ja etwas besonderes hinsichtlich Technik und Optik. Der Mensch wird Innovationsmüde und die Sprünge müssen von Gen zu Gen größer werden um es noch als etwas besonderes anzuerkennen.
 
  • Gefällt mir
Reaktionen: NMA
Habe meinen alten Q9450 auf dem Asus P5K Pro und einer ATI 3650 mal an ein Strommessgerät angeschlossen. Im idle (Windows 7 Desktop) zeigt es so ziemlich genau 100 Watt an. Netzteil ist ein 400 Watt bequiet Pure Power L7. Als Datenträäger dienen eine Crucial M4 SSD mit 64gb und eine 500gb Samsung HDD. Das System ist nicht übertaktet. Irgendwie erschreckend.

Ich hatte 2008 die 4870x2 zu meinem Geburtstag gekauft. Zu jedem Treiber musste man eine weitere Datei installieren, wo die Profile der jeweiligen Spiele drin war. Oder man hat die Game.exe umbenannt, man war das ein Gefrickel. Mafia 2 lief beim Autofahren wie ein Gummiband, bremsen /beschleunigen. Nach dem x. Treiber / Profil/ umbenennen ging es dann irgendwann. Wahrscheinlich habe ich mehr mit Optimieren des Spiels, als mit der Kampagne des Spiels verbracht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: NMA
Wollte auch sagen, damals einen riiieeesigen Haufen Geld rausgeschmissen und dann nur 20FPS in FullHD:
GTX 8800 ULTRA.jpg

Und jetzt könenn die mimimi Kommentare kommen das eine 4070Ti in Cyberpunk auf Ultra QHD "nur" 80+ FPS schafft.... oder 130FPS in COD Vanguard...
 
Dome87 schrieb:
Aber es ist schon erstaunlich, dass die Probleme wie Mikroruckler bis zum Schluss nicht wirklich beseitigt werden konnten.
Das ist einfach zu erklären: bis einschließlich DirectX 11.x gab es nie offiziellen Multi-GPU Support in der API. Das war ein einziges Getrickse und Gepfusche auf Treiberebene. Ein Aufwand den weder Nvidia noch AMD länger betreiben wollten. Erst mit DX12 und Vulkan hielt der Multi-GPU Support auf API Ebene offiziell Einzug!
 
  • Gefällt mir
Reaktionen: NMA, Sammy2k8 und Dome87
Immer wenn ich mir hier die Retro-Berichte über Dual-/Triple-/Quad-SLI/Crossfire durchlese, bin ich echt froh, dass ich diesen Mist nie mitgemacht habe.
Und immer wenn ich meine Graka aufrüsten möchte, bin ich echt traurig, das es für meine "alte", mit Wasserblock ausgerüstete Karte, keinen sinnvollen Anwendungsbereich im neuen Setup mehr gibt.
Warum gibt es bis heute keine sinnvolle Zweitverwertung für etwas ältere GPUs? Sollen sie halt irgendein Subsytem im Spiel berechnen und damit die Hauptkarte entlasten. Ausser in Form von dedizierten 'Physics-Karten' (anno dazumal) ist da nie was passiert. Warum eigentlich nicht?
 
Doppi schrieb:
Der Verbrauch im Idle ist auch krass ^^
Hätte man damals schon die sinnbefreite Einheit "fps/Watt" als Maß eingeführt, wäre Triple-SLI wahrscheinlich ein Effizienz-Wunder so wie die neuen GPU-Generationen heute :D
 
  • Gefällt mir
Reaktionen: NMA
Atma schrieb:
Das ist einfach zu erklären: bis einschließlich DirectX 11.x gab es nie offiziellen Multi-GPU Support in der API. Das war ein einziges Getrickse und Gepfusche auf Treiberebene.
Nein, das war es eigentlich nicht. Ich kenn es von AMD, die hatten extra eine API-Erweiterung angeboten, über die man alles bzgl. Crossfire regeln konnte: Von der Abfrage der GPU-Konfiguration auf einem System bis hin zu diversen Synchronisierungs-Einstellungen zwischen den Karten war alles möglich. Man musste es nur nutzen (also der Entwickler bzw. das Entwicklerstudio).
 
  • Gefällt mir
Reaktionen: NMA
Dome87 schrieb:
Wobei das damals generell noch anders war. Selbst mit einer war man bei über 200 Watt. Moderne PCs verbrauchen im IDLE keine 50 Watt.
Und man fragt sich nur, warum es immer noch so viel im Idle sein muss? Wenn man mal so mit Laptops vergleicht....
 
  • Gefällt mir
Reaktionen: lorpel und bad_sign
Zurück
Oben