News SLI für Intel CPUs von Gigabyte?

Volker

Ost 1
Teammitglied
Registriert
Juni 2001
Beiträge
18.714
Mit dem GA-8I915P Dual Graphic stellt Gigabyte ein neues Mainboards vor, das zwei Grafikkarten auch bei Intel-Prozessoren ermöglicht. Wer also schon immer mit einem Pentium 4 EE und zwei GeForce 6800 Ultra liebäugelte, bisher aber das richtige Board vergeblich suchte, sollte sich den Neuling einmal genauer ansehen.

Zur News: SLI für Intel CPUs von Gigabyte?
 
Volker schrieb:
Schon ein flüchtiger Blick auf das Layout der Platine erweckt den Eindruck, dass die Speicherbänke sehr nah an den Grafikkarten-Slot reichen und es dort mit einigen Pixelbeschleunigern mit ausladendem Kühler zu Komplikationen kommen könnte.

Nö, beim Asus P4P800-Layout sieht es genau so aus. Komme wunderbar zurecht. Wer Angst hat, sich die Finger zu brechen, sollte von Computern sowieso die Finger lassen, wir sind nicht mehr in den 60ern ;-)
 
Klar, ein wenig Feingefühl sollte man auch haben.
Die Probleme kommen erst wenn die Karte nicht passt weil der Kühler am Slot anstößt. Das ist glaube ich eher gemeint.
 
da ist aber ein anderes board zu sehen, zumindest. ist die farbe der speicherbänke anders.

und da geht es um SLI, hier geht es um gigabytes hauseigene technik.
 
Wintermute schrieb:
Die Probleme kommen erst wenn die Karte nicht passt weil der Kühler am Slot anstößt. Das ist glaube ich eher gemeint.

Richtig. Ich habe hier gerade die Gigabyte 6800 GT gehabt. Die hat vorn und hinten Lüfter/Heatpipe und ist nicht wirklich schmal. Aber es wäre schon ein cooles Ding wenn Gigabytes eigene Karte auf dem Ding nicht läuft :p
 
Achso, habe solche Heatpipekonstruktionen bisher noch nicht in den Händen gehalten, daher war es für mich etwas unverständlich, warum der Kühler ausgerechnet nach oben hin für Platzmangel sorgen sollte. Da würde mir mein Northbridge-Kühler mehr Grund zur Sorge bereiten.
 
deekey777 schrieb:
Gigabyte macht es richtig: Wenn die anderen pennen, warum nicht?

Ich denke, dass sich nVidia erst einmal auf Pentium Territorium bewären muss, da man im Normalfalls zu einem P4 immer einen Intel Chipsatz kauft.

Wenn man mal einen Chipsatz von SIS oder VIA kauft, dann kommt aber meistens hier ein Celi als CPU

Also ist er einmal nVidia gefordert einen konkurenzfähigen Chipsatz gegenüber zu bauen.

VIA hatte es ja mal geschaft einen Chipsatz herzustellen, der dem 875 in Sachen Speicherleistung sehr nahe kam, aber durch gesetzt hat er sich nie.

Eigentlich zielt ja SLI auf Leute die beim Gamen die Leistung en Mass wollen, Problem ist aber nur, dass eigendlich jeder der mit seinem Rechner nur spielt einen A64 kauft, da der in Spielen schneller ist.

Jemand der hautsächlich mit seinem Rechner Filme rendert oder viel im Office-Bereich arbeitet, wird sich sicher nicht (wenn er keinen Golfesel hat) so fürs zwischen mal ein bischen spielen ein SLI-System aufbauen.

Deswegen denke ich nicht, dass sich SLI mit einem P4 durchsetzten wird, oder wenigstens so lange nicht, wie AMD in Spielen Intel überlegen ist.

Es wird evt. ein paar geben die sich sowas kaufen, dass sind aber auch nur die Intel-Fanatiker die unbedingt ein SLI-System wollen.


Edit: OH ich glaube mein Post ist ein wenig unsinnig! Hätte den Text von Volker besser lesen sollen :rolleyes:
 
Für eine Mehrleistung von 50% kauft sich doch kein Mensch eine weitere 6800Ultra oder Gt Karte.
Nvidias SLI soll doch doppelt so schnell sein, gegenüber eine einzelnen Karte. Das entspricht doch einem Leistungsgewinn von 100% und nicht nur 50%
 
Gandalfx86 schrieb:
Nvidias SLI soll doch doppelt so schnell sein, gegenüber eine einzelnen Karte. Das entspricht doch einem Leistungsgewinn von 100%


Also eine 100% Mehrleistung schafft auch nicht SLI.

nVidia sprch von einer Leistungssteigerung von maximal dem Faktor 1,9 Wobei dieser Wert auch schon sehr optimistisch ist. im Normalfall sollte sich die Leistunssteigerung im Bereich von 30-60% bewegen.
 
Das liegt daran, dass jede derzeit erhältliche CPU zu langsam ist um SLI auszureizen... Faktor 1,87 ist aber schon oft drin.
 
Saphyrro schrieb:
Das liegt daran, dass jede derzeit erhältliche CPU zu langsam ist um SLI auszureizen... Faktor 1,87 ist aber schon oft drin.

Dieser Faktor kommt aber kommt aber nur zum Tragen wenn die Auflösung 1600x120 oder noch größer gewählt wird.
In allen Auflösungen darunter ist, wie von dir schon gesagt, der Prozessor zu langsam.
Und somit kann nicht von: "aber schon oft drin" geredet werden, weil es kaum oder wenige gibt die mit einer 1600x1200 Auflösung spielen. Auflösungen darüber kommen noch seltener zum Zuge.

Leider sind in der folgenden Umfrage die Antwortmöglichkeiten schlecht verteilt *klick*

Aber ich denke mal, dass die meisten bei der letzten Antwort hier für 1280x1024 gestimmt haben.
 
Raberduck schrieb:
Da FREUT sich meine Frau bestimmt, sie möchte auch noch einen Intel haben.

Ich glaube...

1..... sollte ich mal den Packetdienst vor deinem Haus abfangen :D

und 2. ... ich solangsam, dass du einen Goldesel oder ähnliches hast ;)

Aber ich hoffe, dass dies wieder ein ReView wert wäre, oder?
 
Klar ein Review gibt es doch meistens von den neuen Sachen , nur sind die leider nicht so schnell auf den Markt wie wir das gerne hätten ;) .

Warum brauchen die eigentlich immer solange?

@ Rockzentrale,

der Postbote ist ein guter Freund ( ich glaub wir sind sein bester Kunde) der wird dir so schnell keine Pakete von uns anvertrauen aber auf einen Versuch kommt es an!

Gruß Bärchen78
 
Raberduck schrieb:
Da FREUT sich meine Frau bestimmt, sie möchte auch noch einen Intel haben.

Gruß Raberduck


wer will den freiwillig sowas, ausser man bekommt ne klimaanlage geschenkt und die stromrechnung bezahlt. ^^
 
XTR³M³ schrieb:
wer will den freiwillig sowas, ausser man bekommt ne klimaanlage geschenkt und die stromrechnung bezahlt. ^^

Hi erst mal ;)

die Klima haben wir schon :D , jetzt mal im ernst unser letzter Intel war der erste 3,0 GHz C, wir hatten dort nur Pech.
Nur lass ich mich nicht so schnell ins Boxhorn schlagen und wir möchten unsere eigene Erfahrung Sammeln. Da meine Frau sagt lass es uns doch mal versuchen kann ich doch nicht gleich NEIN sagen.
Ich hab mir auch schon soviel Mist gekauft (für viele andere USER) nur wurde ich vom besseren gelehrt.

Deswegen machen wir unsere eigene Erfahrung.

Gruß Raberduck
 
ich behaupte jamal das der schnell wieder fliegt, besonders wenn man den im direkten vergleich mit dem FX daheim stehn hat. ;)

[edit] welche feige sau hat mal wieder nicht seinen nick ins karma mit reingeschrieben.... zeig dich. :stock:
 
Zuletzt bearbeitet:
Also teilweise macht ein P4 3.0C einen FX55 in Renderingbenshmarks oder ähnliches einfach nur platt. Dafür ist es in Gams-Benshmarks gerade andrest herum :D
 
Zurück
Oben