Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Neue 8800 GT/S und Geforce 9 funktionieren mit VIA-Chipsätzen!
ich hatte ne Asus HD3850 mit Standardkühler ist aber auch schon etwas her ,dann habe ich mir,nachdem ich es im internet gelesen hatte direkt nen neues MoBo geholt hab... asso ich bin jetz auch stolzer Besitzer einer 9600 GT von Sparkle....sieht geil aus das ding
@Monschu: Wie sie rennt, dazu hatte ich bis jetzt wenig Gelegenheit s war ein kleiner Mod von nöten, damit die Platten wieder reinpassen - ist schon geschehn. Alles was ich bis jetzt gezockt hab war TF2 und das rennt bei maximalen Details, 4xAA 16xAF mit gut >90 fps...
Ich hoffe mal es läuft stabil, schließlich muss man beim 4Core die PCIe-Frequenz anheben (aktuell 112 MHz), d.h. die Karte läuft bei 728 mhz Core.
@hoschell: Mitgeliefert wird ein Stromadapter (2x Molex -> PCIe) und eine Kabelpeitsche für den TV-Out. Überrascht war ich, dass sie ein Spiel beigelegt haben, zwar nur Tomb Raider Anniversary, aber immerhin :O
Schade, dann scheint bei den Karten wohl generell ein DVI/VGA Adapter zu fehlen.
Mist, dachte, ich hätte noch Einen zu Hause rumzuliegen, aber Pustekuchen.
Würde mich mal noch interessieren, ob die 9600 GT auf dem Board auch mit Vista funzt.
@riDDI
Hast Du eine Palit?
Bei der Sparkle ist ein Adapter mit bei? Danke für die Auskunft.
Deswegen ist vielleicht die Palit so preisgünstig. Wenn man die Adapter Stecker wegläßt.
Nuja, ist ja nicht schlecht, nur das User mit einem VGA Anschluß halt etwas pech haben.
MfG hoschell
Ja ist eine Palit.
Wer braucht schon noch einen DVI/VGA-Adapter? Entweder man hat schon einen oder man braucht keinen, weil man sowieso nen Flachmann hat.
Kein problem gerne doch... und warm wird sie au net und in UT3 kann ich alles auf ganz hoch zocken mit nem Pentium D 805 non OCéd und 2GB MDT Ram und hab 40 FPS Konstant
Kann ich bestätigen, der Dual-Slot-Kühler der Palit ist durchaus potent. Idle 35, Last 53°. Beide Werte liegen ca. 10° unter den von CB mit dem Standardkühler gemessenen Werten. Die Lautstärke ist zwar soweit i.O., aber Silencern wird sie wohl nicht reichen (mir ). Leider lässt sich der Lüfter derzeit nicht unter 35% (Standardeinstellung sowohl 2D als auch 3D) regeln.
Ohne die PCIe-Frequenz anzuheben geht in Sachen OC beim 775/4CoreDual-VSTA NICHTS. Mit den richtigen Einstellungen erreicht man etwa ganz passable 300 MHz.
Achja, wenn ich dir sage, dass ich ~7500 3DMurkse im 3Dmurks06 erreicht hab bringt dir das mehr? Kannst du daran erraten, wie sich Spiel XY verhält? Mit der ein oder anderen Einstellung ginge da sicher noch mehr, aber das merkt beim zocken kein Schwein.
Natürlich erreicht man keine 10000 wie CB z.B., wenn man ein PT880-Board mit Pentium Dual-Core (trotz Übertaktung) hernimmt. Dafür kostete das System vielleicht die hälfte Wenigstens läuft der 3DMurks
Der 3DMark bietet eine recht gute Möglichkeit die 3D-Leistung eines Systems einzuschätzen und spiegelt diese im Gesamten besser wieder als die meisten einfachen Spielebenchmarks. Außerdem gibt es dafür halt ausreichend viele Vergleichswerte. Also nicht immer darauf schimpfen.
Bezgl. dem PCIe-Takt wollt ich nur wissen ob die 9600gt eventuell nicht mit dem Standardtakt zurechtkommt. Hatte mir schon gedacht, dass es nur wegen OC ist.
Aber wenn du mit ~2,3GHz und 728MHz Core nur auf gut 7,5k kommst ... hmm ... da fehlt doch nen ganz schöner Happen gegenüber PCIe 16x, sollten ansonsten über 10k sein.
Nein, mit 728 lief sie nicht stabil, hab sie deshalb entsprechend runtergetaktet, damit sie auf 650 läuft.
Einen großen Anteil daran hat sicher der Pentium Dual-Core (nur 1MB L2-cache) und natürlich auch der betagte Via-Chipsatz.
Im übrigen hängt nur der Coretakt (und damit natürlich der Shadertakt) von der PCIe-Frequenz ab, der Ramtakt wird wie üblich über einen eigenen Quarz generiert.
Im übrigen weigert sich der PC derzeit Crysis und UT3 ohne Absturz laufen zu lassen. Er hält da keine 2 Minuten durch. 3DMark06 läuft dagegen problemlos...
Es könnte natürlich das Board sein, aber höchstwahrscheinlich liegt der Fehler in Windoof oder dem Forceware begraben. Bin nur leider gerade zu beschäftigt, als dass ich mir die Arbeit machen könnte neu aufzusetzen - auch wenn es nötig wäre.
Wenn man die % Verluste mit der damals aktuellen Radeon HD2900 Serie und den Geforce 8800 Serie vergleicht, waren die Verluste bei den Nforce Grafikkarten immer größer als die der ATI Karten. Ob das auch bei den neuen HD3xxx und den neuen Geforce 9xxx Serie beibehalten werden kann, kann ich auch nicht sagen.
Ich glaube du beziehst dich auf Tests bei THG. Z.B. hier. Das sieht auf den Ersten Blick natürlich erschreckend aus, wenn die Performance auf die Hälfte absackt. Allerdings hat THG hierbei mal wieder Exzellenz bewiesen und für die x4-Tests einfach den 3. Slot benutzt, der über die Southbridge angebunden ist, statt wie die anderen Slots über die Northbridge. Das bringt natürlich eine erhebliche Latenz mit ins Spiel, die bei den Leistungsverlusten nicht ganz unschuldig sein kann. Im Endeffekt hat die Bencherei von THG mal wieder nichts gebracht. Ganz nebenbei sind die Graphen total unübersichtlicht, da man sechs Grafikkarten mit drei verschiedenen Anbindungen und jeweils einzeln oder SLI/CF in eine Grafik gestopft hat. Bravo!
Wenn riDDi und fr33kill vernünftig gebencht haben ganz klar die 3850. Entsprechend wird die 3850 auch in allen Anwendungen, die eine entsprechende Bandbreite benötigen schneller sein. Das dürften dann speziell die Anwendungen sein, für die eine schnelle Grafikkarte überhaupt Sinn macht.
Der neue THG Test macht ja wirklich keinen vernünftigen Eindruck. Da war der alte besser, auch wenn er etwa das gleiche widergespiegelt hat, nur dass die jetzt extremen Rückfälle mit geringerer Bandbreite nicht ganz so stark sind.