News Fünf Jahre Nvidia SLI

Kaliber schrieb:
Hab mir zweimal 7800gtx gekauft eine 500€ :freak: einmal SLI und nie wieder.. :)

Einer der schlechtesten Grafikkartengenerationen die es je gab gleich 2mal und 1k dafür bezahlt. Das ist hefig. Entgegen der allgemeinen Meinung find ich die GF7 übrigens weit schlechter als die GF5. Meine GF5(5900) hat ewig gehalten unter den extremsten Bedingungen,(Kühlerwechsel, Spannungsspitzen, 130-150Grad Temperaturen, unzerstörbar das Teil:evillol:) ohne das man die Details runter stellen musste. Erst 2006 mit Gothic 3 kahmen dann Games die nicht mehr auf high gelaufen sind.

Und bei der GF 7 kommt noch dazu das sie kurze Zeit später von der GF8 komplett zersägt wurde. :rolleyes:
 
@Kasmopaya

Die GF5 war aber nun wirklich auch kein Hit von NV :P
Hab noch nen 6800er GT SLi am werkeln. An der meiner Hardware-Wand hängen
noch zwei Voodoo² (Diamond Monster 3D II) und eine SiS Daytona (die man ja damals brauchte für den 2D Betrieb)
Voodoo² war ja nur für den 3D-Betrieb (in Erinnerung schwelg)
 
Zuletzt bearbeitet:
solange die Microruckler bei SLI und CF nicht vollkommen beseitig sind ist diese ganze Technik witzlos .Jeder ernsthafte Gamer (vor allem der 3D Shooter im Multiplayer spielt) sollte einen grossen Bogen darum machen.Die Mruckler produzieren einen Effekt der dem Netzwerk "lag" der online games vor 10-15 Jahren gleichkommt.Die Spiele selbst waren natuerlich nicht schuld ,viel eher die damals ueblichen Internetverbindungen mit 56k Modem bzw bestenfalls ISDN. Wer einen um/ueber 100ms Ping hatte war leichte Beute fuer andere mit besserem Ping. Mruckler sind nicht ganz so dramatisch ,mich jedenfalls stoeren sie dennoch erheblich.Trotz frameraten von je nach Spiel ueber 100fps hat man das Gefuehl wesentlich langsamer zu sein und gerade ueber die 25-30 fps hinaus zu kommen.In Extremfaellen bei einigen wenigen Spielen ruckte es kurzzeitig sogar so massiv das das game unspielbar wurde.
CF und SLI sind meiner Ansicht nach unausgereifte Technologiestudien die zum richtigen Spielen praktisch ungeeignet sind. Fuer die wachsende Zahl der reinen Benchmark-Zocker ist die Technik aber perfekt und produziert hohe Werte was den meisten ja schon reicht.
 
Zuletzt bearbeitet:
Naja, die meisten Menschen, die SLI nutzen, denken, SLI sei was ganz tolles, wollen aber nicht viel ausgeben, also nehmen sie zwei billige, die schlechter sind als eine für den gesamtpreis. Aber bevor nVidia ne gtx295 oder ati x2 modelle rausbringen, oder man sich 2 Single-GPUs kauft, sollten sie es mal lieber mit noch schnelleren Single-GPUs versuchen, und zwar nicht nur aufgrund der Mikroruckler, sondern auch wegen der nur ca. 60 prozent mehrleistung der 2. GPU und dem stromverbrauch > netzteil
 
Ja das waren Zeiten, meine 6800 konnte ich trotz PCIE noch freischalten, auf dem ersten Sockel 939 System mit nForce 4SLI Chipsatz (ich kannte noch die Verfügbarkeit oO) musste ich mir extra ausm Ausland kaufen :D mit dem 3000+ Winchester.
Bis heute ist das 939 System im Einsatz mit meinem 4800+ (mehr Wert als ein Q6600 :D).
 
Zuletzt bearbeitet:
Ginbts bei SLI nicht auch optional Split Frame Rendering, bei dem die Microruckler nicht auftreten? Ich habe noch nie selbst SLI gehabt, deswegen frage ich.

P.S.
Von wegen Stromverbrauch: Eine GTX280 verbraucht auch doppelt so viel wie eine 8800GT/9800GT - wenn man sich jetzt seinerzeit eine 8800GT kaufte und heute was neues will, spart man ggü 2*8800GT (bzw. 8800GT + 9800GT, was ja aufs gleiche hinaus kommt) kaum Strom mit einer GTX280 - der einzige Grund für GTX280 wären die Microruckler von SLI.
 
Zuletzt bearbeitet:
Jeder macht so seine Erfahrungen mit SLI sicherlich auch in den letzten 5 Jahren,wahrscheinlich auch keine negativen zumindest nicht alle, sonst würde es das System wohl nicht mehr geben.

Ja 3 dfx habe ich auch als Sli genossen und es war damals genauso wie heute mit Problemen behaftet dennoch wenn es geklappt hat war es super,auch wenn hier manche meinen es schlecht machen zu müssen aus welchen Gründen auch immer.

Wäre NVIDIA's SLI nicht so erfolgreich, hätte AMD wohl kaum mit dem Crossfire nachgelegt.

Ich bin zufrieden mit meinem QUAD SLI, und ich brauche es nicht um mir etwas zu beweisen
oder als Potensverstärker oder wie auch immer.

Herzlichen Glückwunsch NVIDIA für ein erfolgreichs 5 Jahres Jubiläum.
 
Zuletzt bearbeitet:
Mich überzeugt es auch nach 5 Jahren noch net :p
Wäre NVIDIA's SLI nicht so erfolgreich, hätte AMD wohl kaum mit dem Crossfire nachgelegt.

Das sind wie die High End Karten Prestige/Vorzeige Sachen/Produkte für die Firmen, natürlich musste ATI da dranbleiben. Groß Geld verdienen tut man mit sowas normal nicht und ob sie erfolgreich sind is auch net entscheidend.
 
Zuletzt bearbeitet:
alter ich werd alt -.- kaum zu glauben als ichs damals in der gamestar gelesen habe dachte das wäre gestern gewesen -.- naja wenigstens funktioniert mein gedächtniss noch
 
zitat Cb:


Von Quad-SLI können wir dagegen nur abraten. So sind die Profile für vier Rechenkerne nur selten gut und die Skalierung liegt meistens unter der der drei GeForce-GTX-285-Karten. Zudem „zuckt“ das Bild selbst in hohen FPS-Bereichen gerne herum, was ein flüssiges Spielen oft unmöglich macht. Darüber hinaus stürzt Quad-SLI in hohen Auflösungen gerne ab, da wahrscheinlich der VRAM für den erhöhten Verwaltungsaufwand (Overhead) zu klein ist.


soviel zum Potenzverstärker ;)
 
digitalangel18 schrieb:
3dfx hat sich selbst gekillt, nvidia daraufhin viele entwickler von dort übernommen.

genaaaaauuu...
wenn nVidia 3dfx verklagt (weil 3dfx angeblich die VSA 100 Chips mit gestohlener nVidia Technologie entwickelt hat), wodurch die Produktion und der Verkauf der kompletten Voodoo 4/5 Palette für Monate eingestellt werden musste bis das Gericht endlich gemerkt hat das die Klage BS war, ist das natürlich absolut kein Grund für den Untergang von 3dfx... :rolleyes:

das nVidia durch die Voodoo 4/5 ziemlich ins hintertreffen geraten ist und die eigene Highend-GPU noch eine ganze Zeit auf sich warten lies war natürlich auch nur reiner Zufall...

schade das es die "akte nVidia"-Seite nicht mehr gibt...
 
@Mountwalker: Aber zwei 8800gt erreichen nicht die leistung einer gtx280.
 
MountWalker schrieb:
Ginbts bei SLI nicht auch optional Split Frame Rendering, bei dem die Microruckler nicht auftreten? Ich habe noch nie selbst SLI gehabt, deswegen frage ich.

ja es gibt:
split-screen rendering
einzelGPU:lol:
Alternate Framerendering 1 &2
und bei Triple. und Qaud-SLI auch 3,4 ;)

und zum Thema lieber starke Einzel- als zwei schwache..
es gibt auch SLI´s aus 2 starken..

nutze es selbst und würde es immer wieder tun..
die gt200-er takten sich im idle eh runter und brauchen weniger als ne 9800GTX also :king:
und die leistung hat bei mir nicht mehr ausgereicht und mit der zweiten ist er wieder auf zack

happy birthday SLI;)
 
@AssA2k1
Wo hast du denn das Märchen her?
3dfx hat sich selber zugrunde gerichtet indem sie sich einfach übernommen haben, haben ihre damaligen Partner vor den Kopf gestoßen und wollten selber Grafikkarten bauen, haben dafür sogar extra einen Hersteller gekauft und wollten nur selber exklusiv vermarkten, ging in die Hose...
 
Darüber hinaus stürzt Quad-SLI in hohen Auflösungen gerne ab, da wahrscheinlich der VRAM für den erhöhten Verwaltungsaufwand (Overhead) zu klein ist.
Mich würd mal interessieren wie hoch der Overhead, also verbrauchter Vram pro GPU wirklich ist, ich glaub so klein ist der nicht, schätze den mal auf so 50-100MB pro hinzugefügter GPU.
 
VERGiL1202 schrieb:
Die Statistik ist vom 21. August 2007, also eher weniger Aussagekräftig denk ich mal.

Mag schon sein. Nur wenn man dann die Gesamtzahl aller Nutzer sieht dürfte es heute auch um/unter 1% liegen.
 
Hui! Interessante Nachricht! 5 Jahre schon!
Warum hör ich bloß nur keine Sektkorken knallen?

Ah, halt mal... wir reden hier von - "S-L-I"!
War das nicht die unbrauchbarste Erfindung seit es Grafikkarten gibt?

@ KlawWarYoshi:

Du schreibst; "es gibt auch SLI´s aus 2 starken.."

Genau das ist doch der Knackpunkt den viele hier ansprechen!
Was brint mir ein schrottiges SLI wenn es nur in Kombination von schweineteuren High-End-Karten sinnvoll ist, um hier ein belächelnswertes Leistungsplus zu erzeugen?
Wenn SLI auf sehr schwachen und "midrange" Karten sehr gut funktionieren und v. a. skalieren würde, so bestünde zumindest eine gewisse Daseinsberechtigung. Ich kann euch allerdings auch sofort sagen, warum das nicht so ist und auch niemals so sein wird;
Nvidia ist (ebenso wie AMD) nicht so blöd oder "großzügig", sich das eigene Geschäft mit teur(er)en Karten kaputt zu machen!
Das ist der einzige Grund.

SLI ist in der tatsächlich nur dazu da um einen ganz "besonderen" Markt abzuschöpfen.
Das ist der Markt der total abgedrehten PC-Freaks, der PC-Potenz-Poser und vor allem der kleinen Spielejungs aus reichem Elternhause.

Merke:
SLI = reines Absatzinstrument
 
Zuletzt bearbeitet:
naja ich hab bis heute nur einzelne GPU's in meinem PC, aber für die ganzen Freaks ist SLI natürlich richtig :P
 
Turbostaat schrieb:
@AssA2k1
Wo hast du denn das Märchen her?
3dfx hat sich selber zugrunde gerichtet indem sie sich einfach übernommen haben, haben ihre damaligen Partner vor den Kopf gestoßen und wollten selber Grafikkarten bauen, haben dafür sogar extra einen Hersteller gekauft und wollten nur selber exklusiv vermarkten, ging in die Hose...

klick mich

oder z.B. hier:

bisschen runterscrollen:
NVidia sues 3dfx - shiva @ 3:36 am PST
In a surprise move, NVidia Corporation have announced that they have filed a patent infringement lawsuit against graphics card rival, 3dfx. The lawsuit, which involves five separate NVidia patents, seeks an injunction preventing 3dfx from manufacturing or selling graphics chip and card products from the Voodoo3, Voodoo4 and Voodoo5 and VSA-100 family of products. NVidia is also asking for monetary damages as well as the injunction.

und das war eh nur die spitze des eisbergs von dem was sich nVidia gegen 3dfx geleistet hat...
 
Zurück
Oben