News Im Test vor 15 Jahren: Microsoft WHQL torpedierte Nvidias Quad-SLI

Saki75 schrieb:
Mich würde wirklich mal interessieren was für grafik wir auf dem PC hätten wenn es keine Konsolen gäbe.
Denn bei Spielen gilt die oberste priorität das es nicht "viel" besser auf dem PC aussehen darf als auf den Konsolen und es sollte wenn möglich auch nicht schneller sein.
Sieht man gut bei FIFA (PC immer lastgen grafik) oder der downgrade beim Flight Simulator wegen der XBOX.
Ich glaube wir hätten vermutlich eventuell sogar schlechtere Grafik du zeigst ja das Beispiel Fifa mit immer LastGen Grafik auf. Weshalb sollte jemand aufrüsten, wenn alle Spiele gut funktionieren? Weshalb sollte ein Entwickler Spiele entwickeln die, die meisten Rechner nicht packen und im Umkehrschluss weniger zu verdienen, bis auf ca. 3 Aussnahmen die Grafikfetischischten bedienen sollen.
Cyberpunk2077 ist ja eigentlich ziemlich auf dem PC optimiert weshalb die PS4-Version und die Xbox One version relativ laussig sind. 2077 ist also vermutlich obere Fahenstange, dann gibt es ja auch Star Citizien das sich auch nicht der Fesseln der Konsolen beugen muss... derzeit.
Konsolen haben auch einen relativen großen Threadanteil, hätten wir diese nicht würde wohl Spiele die gerade eben rausgekommen sind, noch an dem gängigen Mainstream Intel-4-Threader als Basis optimiert sein.
 
  • Gefällt mir
Reaktionen: Saki75
Ich hatte damals das "Einstiegs-SLI" mit zwei 8800GT. War auch da noch echt kacke :D
 
deo schrieb:
Und danach kam die 8800GTX und machte jedes SLI-Gespann der vorherigen Generation platt. :evillol:
Da habe ich damals Pfand gesammelt, um mir diese 600€-Karte "leisten" zu können.
Das waren Zeiten...
 
Neodar schrieb:
Da es sich ja am DIE Grafikkarten handelt, müsste es wohl "Exotinnen" heißen.

Aber mal ehrlich, wer schert sich denn um dieses dümmliche Gendering?
Um dieses dümmliche schert sich Niemand. Es fordert aber auch Niemand von Grafikkartinnen oder Landkartinnen zu sprechen. Diese Pseydobeispiele wie "gaga" das ist saugt ihr euch halt aus den Finger.

@topic
Schön wärs gewesen aber naja, sicher wurden dabei einige wertvolle Erkenntnisse mitgenommen und von wegen Multitasking: Da sind CPUs noch lange nicht soweit wie GPUs. In Grafikkarten werkeln ja auch hunderte hochoptimierte Prozessoren. Das läuft ja nicht seriell sondern extrem parallelisiert.
 
Hatte damals nem Kumpel eine GX2 verbaut. Lief eigentlich auch wunderbar, mir aber zu teuer. SLI oder CF hatten mich nie wirklich interessiert.
 
Die denke viel hilft viel war auf dem
Papier ( oder besser gesagt auf dem Screenshot nach einem
Benchmark) beeindruckend ( vielleicht?) !

ich habe den Sinn niemals gesehen 400% ( oder auch 200% ) rein zu stecken und am Ende 210% ( oder 140%) raus zu bekommen.

microruckler will ich jetzt nicht ansprechen da es quasi unspielbar war quasi
 
Normales SLI/CF war tatsächlich teils tauglich, Engines wie Frostbyte haben fast 1:1 skaliert, andere dafür wie die CryEngine haben nur um die 30% der zweiten Karte raus geholt, was einfach viel zu wenig war. Andere Games haben sogar gar nicht profitiert.
Der Abschuss war dann natürlich Triple oder Quad, viele Games liefen damit gar nicht erst an oder man hatte sogar weniger Leistung.

Letztlich ist das Thema an der kleinen Käuferschaft und dem geringen Support der Hersteller / Engines gescheitert. Wenn zu wenig mitmachen lohnt es sich einfach nicht. Ich hatte auch längere Zeit CF im Einsatz und mir hat es letztlich nicht mal bei Battlefield etwas gebracht, da die Hitzeentwicklung ohne Wakü bei High-End Karten einfach zu brutal war, speziell die zweite Karte wurde enorm aufgeheizt, was nach stundenlangem zocken hieß das die Taktraten runter gingen. Hat schon immer mehr Sinn gemacht abzuwarten bis eine schnellere Single GPU raus kam, außer man hat eben wirklich alles auf Wakü gestellt, was bei CF/SLI meiner Meinung nach auch fast Pflicht war. Da sind wir aber bei enormen Kosten und dennoch geringem Nutzen, da eben nicht von allem Supported. Im Zweifel zockt man dann doch nur mit einer Karte, was die Ausgaben einfach lächerlich macht.
Ist trotzdem schade für Enthusiasten, da man innerhalb einer Gen im Idealfall mit zwei Karten tatsächlich etwa die doppelte Leistung hatte. War schon brutal das zu sehen. Man stelle sich vor das neue Battlefield mit doppelten FPS auf einer 3090 :)
 
Erzherzog schrieb:
Normales SLI/CF war tatsächlich teils tauglich, Engines wie Frostbyte haben fast 1:1 skaliert, andere dafür wie die CryEngine haben nur um die 30% der zweiten Karte raus geholt, was einfach viel zu wenig war. Andere Games haben sogar gar nicht profitiert.
Screenshot_2021-08-01-07-16-12.png

Sorry kann es nicht zuschneiden, verd... Android Tablet.... Aber Crysis hatte stets eine gute Skalierung. Vor allem die Minimum Frames skalierten zu 185%!
 
Ich hatte mir cf und sli damals angeschaut in der Hoffnung mit zwei billigen Mittelklasse Karten die Leistung einer für mich damals unbezahlbaren Topkarte zu erreichen. Bzw. erst eine kaufen und dann irgendwann eine gebrauchte dazu zu kaufen. Da zu dem Zeitpunkt immer eine einzelne neue Karte günstiger war (auch Verkauf der alten), hatte ich nie sli oder cf im Einsatz.

Halt. Das "echte" sli mit zwei Voodoo2 hatte ich mal in nem Retro PC 😁
 
Raucherdackel! schrieb:
Sorry kann es nicht zuschneiden, verd... Android Tablet.... Aber Crysis hatte stets eine gute Skalierung. Vor allem die Minimum Frames skalierten zu 185%!
Häh, das gibt ja nicht mal die Tabelle her. Nur mal so, ich hatte zwei 7970 mit denen ich das getestet habe und da waren nur um die 30% drin, hat man auch an der Auslastung der zweiten Karte gesehen. Bei der HD4000er kann ich nicht mitreden, allerdings ist das was du da verlinkt hast auch Warhead, das hat unter Umständen besser skaliert. Hing auch immer stark von den Treibern ab, ich hatte aber damals das aktuelle CF Profil und die HD7000er Serie war einiges aktueller. Jedenfalls war es in Crysis so bescheiden das man es lassen konnte, gerade für die Technik die dahinter stand war es eigentlich eher peinlich das es so schlecht skaliert hat, die FrostByte Engine war dagegen einfach Top-Notch. Kann es aber nur bei CF sagen, denke allerdings das SLI sich da nix genommen hat :)
Das betraf bei dem Game aber auch die Kern-Auslastung. Das Game war sehr stark von Single Thread abhängig. Von daher muss man leider sagen hat das Game eh nie spätere Technik wirklich gut genutzt, wie es bei den Nachfolgern war weiß ich jetzt nicht mehr aus dem Kopf.

edit:
wenn ich mich richtig erinnere war das sowieso fast unspielbar wegen der Microruckler, bei dem Game hat man es sehr stark gemerkt wenn die FPS nicht hoch genug waren, was damals logischerweise bei so einem Grafikfresser der Fall war. Mit einer 4870 hat das erst Recht keinen Spaß gemacht. Kenne jemand der 6950 CF hatte der hat das Game dann auch nur mit einer Karte gespielt, lief einfach runder. Daher kann ich auch die Frame Time Argumentation von dir Null nachvollziehen, denn die Karten von denen ich spreche sind deutlich schneller als eine 4870 es damals war. CF lief einfach sehr bescheiden. Aber naja, ist eh immer das selbe Problem gewesen, es mussten neue SLI/CF Treiber her und meist waren die Engines halt auch nicht mehr auf Multi-Cores und neue GPU Architekturen ausgelegt. Daher hast mit neuerer Hardware auch nicht so viel FPS mehr als es sein könnten.
 
Zuletzt bearbeitet:
konkretor schrieb:
Herrlich sinnlos

Viel hilft viel...
Nur, dass die kommenden Generationen genau DAS machen werden. Viel (chiplets) helfen viel.
Natürlich ist der Aufbau ein anderer. Die Aufteilung der Arbeit wird intern geregelt und nicht extern so wie früher. Aber das Prinzip ist das selbe: Lastverteilung auf mehrere kleinere Chips anstatt ein großer.
 
also mit der 780ti hat SLI super funktioniert. Auch in den meisten Games.
Aber danach, bzw dann, ging es stehts bergab. immer etwas mehr.....
 
Wenn man mal von der Voodoo 3dfx absieht (ich weiß - darum geht's in dem Beitrag nicht) hatte ich nie ein Multi-GPU-System.
Der Grund war - mir fehlte das "Kleingedruckte".
 
  • Gefällt mir
Reaktionen: Kenshin_01
Erzherzog schrieb:
Häh, das gibt ja nicht mal die Tabelle her. Nur mal so, ich hatte zwei 7970 mit denen ich das getestet habe und da waren nur um die 30% drin,
1627812264924.png

Erzherzog schrieb:
edit:
wenn ich mich richtig erinnere war das sowieso fast unspielbar wegen der Microruckler,
1627812394678.png

Quelle: Computerbase Test zu Crysis Warhead.

Ich glaube du versuchst nur irgendwie doch recht zu haben... was du aber nicht hast^^
 
Das war damals ein fantastisches Spielzeug zum rumprobieren.
Ich hatte nur leider in 16:9 flimmern - musste 5:4 sein.
DSCN0746.JPG
Mein Rechner Juni 2007.JPG
7950GX2 Quad-SLI.jpg
 
  • Gefällt mir
Reaktionen: Coeckchen, Hexxxer76 und cr4zym4th
ThePlayer schrieb:
Das ist ja eine super kleine Niesche, gibt ja nur sehr wenige Monitor mit über 5K und dann will man bestimmt ein Gerät mit mehr als 60 oder 75hz. Und dann sind die Preise immer noch gesalzen. Und selbst eine 3090 oder 6900xt geht in 4K auch schnell die Puste aus. Da würde selbst CF oder SLI nicht viel bringen wenn es dann auf 5, 6 oder 8K geht.

Da hast du natürlich Recht. SLI war ja auch schon damals für die kleine Niesche und Quad SLI die Niesche der Niesche. Wenn das technisch "ohne Programmieraufwand" und eben ohne die bekannten Probleme funktionieren würde, würde ich hier trotzdem einen Markt sehen. Halt eben wirklich nur jeweils für das Topmodell (Bei der Mittelklasse war es ja eher üblich, dass man eine neuere Karte nahm, anstatt eine zweite dazuzustecken).

Evtl. kommt das ganze ja mit dem Multichip-Ansatz wieder zurück und funktioniert ohne Kompromisse.
 
ich hatte das ganze auch mal mit 2 7900gtx probiert. da nur probleme wieder raus geschmissen. tatsächlich später vor 2 jahren sogar mit ner 970gtx zum spass wieder probiert und es lief sogar, nur leider nicjt immer ein vorteil trotz mehr frames. und nun ist es ja eh nicht mehr supported und tod bin gespannt was da 22 kommt …
 
Zurück
Oben