News Nvidia stellt Triple-SLI offiziell vor

FaZe schrieb:
Diese Grafik ist wieder typisch nvidia. Da sieht man einen tollen roten Balken der alle anderen ueberragt.
statt einfach nur bunte bildchen angucken vll einfach mal etwas text lesen

das ist ein test einer unabhängigen redaktion
nvidia hat damit gar nichts zu tun

einfach mal den anderen verlinkten test anschauen und merken das bei extremen einstellungen triple sli gar nicht mal so schlecht ist
für leute die ne menge geld zu viel haben ist das doch ne tolle sache
 
mr5 schrieb:
Eigentlich sind 3x GTX im Verbund preiswerter als einzelne Grafikkarten!

Lasst mich diese Hypothese euch mal erklären.......

Ist wohl etwas ironisch gemeint, oder :D? Du hast bei Deiner Rechnung vergessen, dass sich die Grafikkartentechnologie in den nächsten 6 Jahren dermaßen rapide weiterentwickeln wird, dass Du dann mit Deinem (hypothetischen) triple-SLI-System wahrscheinlich keinen Blumentopf mehr gewinnen könntest.

An alle, die sich hier ökologisch korrekt äußern wollen: überlegt Euch bitte mal den Marktanteil einer solchen Lösung und stellt das in Relation zu den Millionen von Servern und Office-PCs, die 24/7 vor sich rumdümpeln. Na, macht es klick? :D
Das wäre genauso, als wenn man den Besitzer eines Bugatti Veyron für die Erderwärmung verantwortlich machen würde. Triple-SLI ist was für absolute Enthusiasten, die Spaß an Extremstlösungen haben. Also warum immer die Maßstäbe der Vernunft ansetzen?

Mfg
 
Zuletzt bearbeitet:
Geil!

Demnächst 3 8800 Ultra Karten zu einem QuadCore, dann kommen bald auch schon die 22.2 Systeme, damit jeder Blickwinkel auch ne eigene Box bekommt.
Nachdem die Welt auf UHDV-Auflösungen umgerüstet hat, steht in jedem Vorgarten ein Kleinkraftwerk...
 
Irgendwie ergibt der Name keinen Sinn...

Wenn SLI für 2 steht, dann würde Tripple SLI rein Theoretisch doch für 6 stehen. Entweder hat man da bei nVidia nicht ordentlich aufgepasst, oder ich habe was missverstanden. Natürlich ist SLI ein Markenname von nVidia, und kann diesen frei gestalten, doch wenn sie 2 Grafikkarten unter SLI stecken, sollten sie wenn bei einer logischen Namensgebung bleiben, oder das ganze direkt umbennen.

Naja, der Rest von wegen Stromverbrauch, Leistungsgewinn und natürlich die Unsinnigkeit dieser Neuerung wurde schon in den meisten Comments erwähnt, und würde daher nur jegliches weiterlesen meines Comments langweilen ;).
 
Ich glaube die Leistung wird zweitrangig sein, um mehr Absatz zu erhalten wenn man Systeme mit TrippleSLI verkauft.
In meinen Augen ist das völliger Schwachsinn, haben die Leute kein Leben wenn die das Zeug anschaffen!?
 
Was das System verbraucht, da kann ich glatt meine Heizung abdrehen. Aber mal spass bei Seite. Das ist Stromvernichter. Ich halte System für übertrieben. Das gilt auch für die spyder-System von AMD. Solche Systeme sind wirklich für einzelne Menschen interessant.
Interessant wäre aber ein Test in einem geschlossenen Gehäuse mit und ohne Gehäusebelüftung.
 
XziTe schrieb:
Irgendwie ergibt der Name keinen Sinn...

Wenn SLI für 2 steht

sli steht aber nicht für 2...

Sli stand ursprünglich für scanline interleaving, also die methode, bei der jeder Grafikchip jeweils eine Zeile an Pixeln berechnet.

Dieses neumodische Nvida SLI hingegen steht für "scalable link interface", was im Prinzip garnix aussagt.


Auf jedenfall hat beides nix mit einer 2 zu tun.
 
Heißt es denn jetzt offiziell tatsächlich Triple-SLI oder hat sich das jetzt nur in den Medien so eingebürgert? Denn in der (deutschsprachigen) Pressemitteilung les ich nur 3way-SLI...
 
Ich weiß gar nicht was ihr alle so erstaunt seid ... Ich mein prinzipiell hat ATI/AMD dass Prinzip doch schon vor einem Monat vorgestellt.
Und zwar sogar mit VIER GPU's, in Form von Crossfire X und mit multicore GPU's könnte man dann sogar Octo-Crossfire realisieren.

Also für mich ist es irgendwie nichts neues mehr ... höchstens die tatsache dass es jetzt sowieso die schnellsten karten sind die nochmal mehr zu dritt hermachen.
 
3xSLI super! dafür muss man dann mit onboard-sound rumkrüppeln, weil man keinen steckplatz mehr frei hat?! Haha
 
[ironiemodus on]
Sicher "muss" man dann mit Onboardsound herum dümpeln, weil es "DEFINITIV" gar keine andere Möglichkeit mehr gibt um das auch anders zu realisieren!
[ironiemodus off]
 
Was mich wirklich interessieren würde, inwieweit die 3 Ultra´s sich im Spielbetrieb aufheizen. Meiner Meinung könnte es sogar sein, dass so wie auf dem Bild die ganze Sache rein von den zugebauten Lüftern garnichit funktioniert.

5 Minuten Spielen, dann gibt´s "Grießel" auf dem Monitor, weil 2 der 3 Karten über 100°C heiss sind. :evillol:
 
Ja glaub auch das die sehr heiß werden! Wäre mal schön zu wissen wie heiß... so nach 1std.
Crysis im geschlossenen Gehäuse.
 
wenn man das mit 3 8800GT machen könnte würde wenigstens jede karte noch etwas luft bekommen, aber mit 3 dualslot kühlern direkt nebeneinander wird das doch nix... da is ne WaKü ja grundvorrausetzung, wobei man denn wieder einen eigenen kreislauf für die grakas bräuchte. das is doch total beschränkt^^
aber wie hier fast jeder 2. sagt: Wers Brauch!
 
Das menschliche Auge nimmt eh nicht mehr als 25 FPS auf, alles über 25 FPS läuft flüssig was drunter liegt bezeichnet man als ruckeln! Wenn du was anderes siehst, würd ich mich mal zum Augenarzt aufmachen ;) oder weniger vorm Rechner hocken :D
 
bei aller liebe zu NVIDIA,
anstelle eines 3x 8800 Ultra Gespanns wäre es wohl intelligenter auf ein Quadcrossfire System bestehend aus 4 HD3870 zu setzen. Diese wären leiser und da Crossfire besser skaliert vermutlich auch schneller. Vom Stomverbrauch her würden die HD3870 auch sehr punkten. Schließlich braucht eine HD 3870 satte 87W weniger als eine Ultra - und das in Idle was wohl 90% der Zeit entspricht.
Unter Last sogar 100W pro Karte (!) weniger.
Selbst 4 Karten würden immernoch weniger als 2 Ultras brauchen. Lob an AMD/ATI!
Wenn die Stromspar Modi der HD3870 X2 die der HD3870 übertrumpfen kan man sich aus diesen ein weitaus schnelleres Sys zusammenbauen, wenn man das Geld dazu hat :P

Sogesehen wäre eine QuadCrossfire oder gar OctaCrossfire Lösung eindeutig besser, und auch wesentlich billger. Von DX10.1 und PCI Express 2.0 sogar abgesehen.

Ob es sinnvoll ist sei dahingestellt.
Meiner einer würde sich lieber eine Fusion IO mit 80Gb für das Geld kaufen xD. Davom merk ich dann auch im normalen Desktopbetrieb was und die nervigen Festplattengeräusche wären weg.

@Ph@ntom
wenn dein Auge nicht mehr als 25 FPS wahrnimmt solltest du vllt zum Augenarzt.
 
Zuletzt bearbeitet:
Ph@ntom schrieb:
Das menschliche Auge nimmt eh nicht mehr als 25 FPS auf, alles über 25 FPS läuft flüssig was drunter liegt bezeichnet man als ruckeln!....

Was viele dabei allerdings nicht bedenken ist, dass 25fps im Schnitt eben nicht ausreichen, da es eben nur der Durchschnittswert ist. Man ist demnach gut bedient, wenn die framerate nicht unter 25fps im schlimmsten Fall sinkt. 25fps im Schnitt bezeichne ich je nach Spiel schon als unspielbar, v.a. in shootern.
 
Bei schnelleren Bewegungen braucht man mehr Bilder pro Sekunde damit es flüssig bleibt. Ab 35 Bilder pro Sekunde ist die Grafik auch bei relativ schnellen Bewegungen flüssig.
 
übertrieben welcher tower kriegt das alles rein da braucht man ne sonderanfertigung und von den kosten da möchte ich lieber nicht diskutieren, wirt für nen normalverdiener eh nicht zu erreichen..........
 
Zurück
Oben