tun sie 100% war ja vorher auch schon so außerdem sieht man dass die linie expotentiell verläuft d.h. immer emhr gpu s und strom und geld und temperatur für immer weniger leistung.....halt ich für schwachsinnig sli...wegen mir wers brucht is ganz nett wenn ich geld zum lalala hätt würd ichs auch machen aber naja man brauch ja schon fast wirklich ne kokü um die laden kühl zu halten außerdem braucht ma eh mal noch ne terror cpu die übelst übertaktet ist um der graka überhaupt was vor die füße werfen zu können d.h. monstersystem mit kokü----> dein poc klingt wie n ejt der grad abhebt und kostet um die 8000€ was bring ne graka ohne den rest ....nix ..... ok cpu dazu ........... was bringt net cpu nur mit graka.....nix ram dazu war bringt ram ohne ne gut schnelle festplatte......nix usw usw usw
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Quad-SLI (7950 GX2) und der Stand der Dinge
- Ersteller Wolfgang
- Erstellt am
- Zur News: Quad-SLI (7950 GX2) und der Stand der Dinge
Mehrere grakas in einem Rechner - das wird bestimmt eine wirtschaftliche Totgeburt. Wer gibt denn dafür schon Geld aus (von wenigen Enthusiasten einmal abgesehen). Ich glaube da haben die die Rechnung ohne den Wirt gemacht. Mehrere Kerne auf eine Graka, bei fast konstantem Energieverbrauch - so wie bei den Doppelkern Prozessoren - das kann ich mir schon vorstellen, aber zwei oder mehr grakas in einem Rechner = Sinnlos.
Wie xXStrikerXx schon schrieb: Preis, Hitze, Kühlung, Lärm... warum sollte man sich das antun?
Wie xXStrikerXx schon schrieb: Preis, Hitze, Kühlung, Lärm... warum sollte man sich das antun?
tAk
Vice Admiral
- Registriert
- Feb. 2005
- Beiträge
- 7.146
Also bezüglich des Preises sind 2 GX2 schon recht teuer, aber eine einzelne lohnt sich alle mal.
Der Stromverbrauch einer einzelnen GX2 ist geringer oder in etwa gleich wie bei einer X1900XTX. Von daher ist das eigentlich noch erträglich.
Bezüglich der Lautstärke kann ich sagen, das die Karte zwar leuter ist als es meine beiden 7800GTX waren, die Lüfter aber keineswegs störend werden.
Der Mehrgewinn von QSLI ist im Moment noch wirklich fraglich. Wir werden's sehen, wenn auch die passenden Treiber sowie Profile vorhanden sind.
mFg tAk
Der Stromverbrauch einer einzelnen GX2 ist geringer oder in etwa gleich wie bei einer X1900XTX. Von daher ist das eigentlich noch erträglich.
Bezüglich der Lautstärke kann ich sagen, das die Karte zwar leuter ist als es meine beiden 7800GTX waren, die Lüfter aber keineswegs störend werden.
Der Mehrgewinn von QSLI ist im Moment noch wirklich fraglich. Wir werden's sehen, wenn auch die passenden Treiber sowie Profile vorhanden sind.
mFg tAk
SirMarkPower
Ensign
- Registriert
- Apr. 2003
- Beiträge
- 163
Es gibt Menschen, die sich einen Ferrari oder Maserati kaufen. Einen 500 PS Wagen zu haben ist auch absoluter Unsinn.
Eins sollte man dabei nicht vergessen:
Man lebt nur ein mal!
... und dabei sollte man auch Spaß haben.
4 GPU's sind sicherlich auch Unsinn. Dieser macht aber Spaß ! => Dual Core CPUs + multi GPUs + RAIDs sind eine geile Sache.
Also meckert nicht immer über alles !!!
... habt lieber Spaß.
Gruß
sirmarkpower
Eins sollte man dabei nicht vergessen:
Man lebt nur ein mal!
... und dabei sollte man auch Spaß haben.
4 GPU's sind sicherlich auch Unsinn. Dieser macht aber Spaß ! => Dual Core CPUs + multi GPUs + RAIDs sind eine geile Sache.
Also meckert nicht immer über alles !!!
... habt lieber Spaß.
![Zwinkern ;) ;)](/forum/styles/smilies/wink.gif)
Gruß
sirmarkpower
LOL das alles ist zwar genauso übertrieben wie die dähmlichen FX von AMD und EE von Intel, aber wenn sie gekauft werden lasst sie doch. Niemand wird gezwungen sie zu kaufen und bevor sich irgend son reicher das 10 Auto kauft kann er seinem Sohn auch sowas schenken ![Zwinkern ;) ;)](/forum/styles/smilies/wink.gif)
P.S. Viele von euch haben wohl echt keine Ahnungn von Geld ... ich mein es gibt viele die sich das locker Leisten können. Wenn ich mal alle Durchgeh die ich kenne, dann komm ich sicher auf ca. 30-40 Personen die jedes Jahr 2000-3000 für einen neuen Rechner ausgeben. Nur weil ihr das Geld nicht habt heisst es net das es niemand anderes hat und ausgibt ...
![Zwinkern ;) ;)](/forum/styles/smilies/wink.gif)
P.S. Viele von euch haben wohl echt keine Ahnungn von Geld ... ich mein es gibt viele die sich das locker Leisten können. Wenn ich mal alle Durchgeh die ich kenne, dann komm ich sicher auf ca. 30-40 Personen die jedes Jahr 2000-3000 für einen neuen Rechner ausgeben. Nur weil ihr das Geld nicht habt heisst es net das es niemand anderes hat und ausgibt ...
Zuletzt bearbeitet:
Commander64
Lt. Commander
- Registriert
- Mai 2006
- Beiträge
- 1.336
Ich finde das auch sehr übertrieben. Mir würde ne X1900XTX reichen^^. Spaß beiseite, die X850XT ist schon gut genug. Es gibt nur wenige Spiele, die ich auch zocke und die nicht flüssig laufen sogar bei höchster Auflösung (FEAR wäre da eins, des net ganz voll geht und Quake 4 wegen nur "nur" 256MB GrakaRam.).
die oben angesprochene Idee höherer Auflösungen kann ich nur nochmal wiederholen - wie wäre es denn mal, Doom 3 u.ä. auch noch in ehm... irgendwas abartigen so mit >2000Pixel breite und natürlich wirklich alles auf maximum zu testen? Irgendwie muss man doch auch so ein Kartenmonstrum zum Ruckeln bewegen ![Zwinkern ;) ;)](/forum/styles/smilies/wink.gif)
![Zwinkern ;) ;)](/forum/styles/smilies/wink.gif)
- Registriert
- Apr. 2005
- Beiträge
- 5.172
genau! meine x800xtpe (genau wie ne x850xt) reicht auchnoch fuer die meisten spiele und ich werd mir bestimmt nur eine graka kaufen es sei den ich haette mal die möglichkeit eine 2. zu kaufen wenn dann net schon die naechte generation gegkommn ist wo eine wenig teurere karte als meine dann schneller waeren als meine beiden dann! aber ingesamt sollten sich nv und ati mehr darauf konzentieren die spiele mit einer karte zum laufen zu bringen!
Phate909010
Cadet 3rd Year
- Registriert
- Juni 2005
- Beiträge
- 61
wenn ich mir mal so ankucke das zwischen 1 GraKa und einem 4er Gespann bei Doom3 nur 50% Leistung hinzu kommen, find ich das irgendwie lachhaft dann bau ich ja lieber nen xtremen Kühler drauf und übertakte bis zum anschlag dann krieg ich auch noch 10-30% mehr Leistung und bezahle nicht den 4fachen Preis
Zifko
Lieutenant
- Registriert
- Apr. 2004
- Beiträge
- 928
ich weis nicht warum sich die leute über sowas aufregen!
Keiner wird auch nur annähernd gezwungen eine bzw 2 karten davon im pc zu haben, da jedes spiel auch mit nur EINER "normalen" karte läuft!
manche leute haben 2-3 Pc's daheim stehen, andere haben 2-4 grafikkarten im pc, und wieder andere haben 2-3 handys oder ein paar autos vor den türen stehen. Bei sowas habe ich noch nie jemanden aufregen sehen, bzw nicht so extrem wie bei grafikkarten.
nvidia und ati wollen mit solchen karten eh nur zeigen was sie drauf haben und herstellen KÖNNEN, und ich bin teilweise überrascht das man mit 2 bzw 4 karten einiges an leistung rausholen kann, auch wenn es nicht ganz so effizient ist.
Keiner wird auch nur annähernd gezwungen eine bzw 2 karten davon im pc zu haben, da jedes spiel auch mit nur EINER "normalen" karte läuft!
manche leute haben 2-3 Pc's daheim stehen, andere haben 2-4 grafikkarten im pc, und wieder andere haben 2-3 handys oder ein paar autos vor den türen stehen. Bei sowas habe ich noch nie jemanden aufregen sehen, bzw nicht so extrem wie bei grafikkarten.
nvidia und ati wollen mit solchen karten eh nur zeigen was sie drauf haben und herstellen KÖNNEN, und ich bin teilweise überrascht das man mit 2 bzw 4 karten einiges an leistung rausholen kann, auch wenn es nicht ganz so effizient ist.
supersonic
Lt. Commander
- Registriert
- Apr. 2003
- Beiträge
- 1.696
Irgendwie muss man doch auch so ein Kartenmonstrum zum Ruckeln bewegen
das dürfte mit diesem Teil möglich sein, natürlich nur wenn die native Auflösung nutzt
![Evil LOL :evillol: :evillol:](/forum/styles/smilies/evillol.gif)
http://www.prad.de/new/monitore/test-dell-3007wfp.html
Solche Displays (ich meine jetzt natürlich nicht obigen, sondern sagen wir 19"-21") werden in der Zukunft immer verbreiteter. Deswegen wird man auf SLI o.ä. zurückgreifen um in nativen Auflösungen zu bleiben.
supersonic
Lt. Commander
- Registriert
- Apr. 2003
- Beiträge
- 1.696
doppelpost.
Cpt-Future
Newbie
- Registriert
- Juni 2006
- Beiträge
- 5
Wieso wollt ihr bei der Auflösung schon schluss machen? Es ist wohl unrealistisch, dass sich jemand ein Quad-SLI-System zusammenbaut und am Ende einen dödeligen 21- oder 23-Zoller für 400€ bis 800€ anschließt?! Reale Testbedingungen wären hier wohl eher ein hübscher 30"-TFT von Dell, Apple oder wem auch immer. Für die wichtigen Aussagen über Skalierungsverhalten wären genau die höchsten Auflösungen notwendig, weil die nochmal n ganzes Stück reinhauen. Ich weiß das, weil ich auf meinem 30er mit 2560x1600 gerade noch so mit AA zoggn kann - und das mit X1900-Crossfire-System... Bitte erhöht also die eigenen Ansprüche an die Testmethodik!
also ich bin von einer x800xt "pe" auf ne gx2 umgestiegen und kann euch sagen der performance gewinn is mehr als spuerbar
die karte ist selbst auf 1024x768 4AA 16AF in spielen wie fear zB mehr als 3x(min fps) so schnell selbst bei hoechster qualitaet spielt es sich "butterweich" .... ich hatte schon sehr viele grakas und kann mich nicht mehr an so einem performance sprung erinnern (hoechstens evt von voodoo graphics auf voodoo² SLI
)
![Lächeln :) :)](/forum/styles/smilies/smile.gif)
![Zunge rausstrecken :p :p](/forum/styles/smilies/tongue.gif)
general-of-omega
Lt. Commander
- Registriert
- Juli 2004
- Beiträge
- 1.860
wakü ist bis jetzt noch des größte problem
A
ArnoNym456
Gast
Benchmarks mit höheren Auflösungen?
Wozu denn? Oblivion (outdoor) + 4AA + 16AF quält jede Grafikkarte auch bei 1024x768
Nvidia und Ati sollen sich lieber um den Verbrauch kümmern.
Ich hätte auch eine Idee aber sie melden sich ja nicht bei mir und auf E-Mails antwortet man ja auch nicht![Traurig :( :(](/forum/styles/smilies/frown.gif)
Wozu denn? Oblivion (outdoor) + 4AA + 16AF quält jede Grafikkarte auch bei 1024x768
Nvidia und Ati sollen sich lieber um den Verbrauch kümmern.
Ich hätte auch eine Idee aber sie melden sich ja nicht bei mir und auf E-Mails antwortet man ja auch nicht
![Traurig :( :(](/forum/styles/smilies/frown.gif)
Zuletzt bearbeitet:
(Ergänzung)
Ähnliche Themen
- Antworten
- 83
- Aufrufe
- 11.035
- Antworten
- 101
- Aufrufe
- 29.346