News Inno3D bringt GeForce 6800 LE für PCIe

Wolfgang

Redakteur
Teammitglied
Registriert
Nov. 2002
Beiträge
8.915
Grafikkarten mit dem nVidia GeForce 6800 LE-Chip für das AGP-Interface galten lange Zeit als ein preisgünstiger Geheimtipp, da man dort durch einen „Pipeline-Mod“ die deaktivierten Pixel-Pipelines reaktivieren und somit mit viel Glück die Performance einer deutlich teureren GeForce 6800 GT erreichen konnte.

Zur News: Inno3D bringt GeForce 6800 LE für PCIe
 
ist es aber so leicht die pipelines freizuschalten bei pciexpress auch so wie bei AGP?
 
als das is doch ma was :) weil dann wäre das auch ne gute lösung. sli nicht zu teuer. nur dann kommt wieder die frage wie schnell sie ist und ob sie eine 6600gt im sli überflügeln kann. schließlich si die 6600gt ja auch bissi schneller im singel als die 6800le.
ansonsten ist das eine gute lösung.
 
@ Shir-Khan

Du hast aber schon den Text gelesen, oder?
 
Wenn man bei der karte Hier die 4 Pipes freischaltet und Chip und Speicher auf 350 übertaktet, müsste man doch auf die leistung einer Asus V9999 GT mit 128 MB kommen, oder?

Apropo freischalten, wie geht das ??

MFG MFX
 
Zifko schrieb:
als das is doch ma was :) weil dann wäre das auch ne gute lösung. sli nicht zu teuer. nur dann kommt wieder die frage wie schnell sie ist und ob sie eine 6600gt im sli überflügeln kann. schließlich si die 6600gt ja auch bissi schneller im singel als die 6800le.
ansonsten ist das eine gute lösung.


Wenn mann ein bissel denn Takt anhebt mit Sicherheit! :) 256Bit VS 512 bit :cool_alt:
 
Also der Preis ist mir bis jetzt noch nicht bekannt.
Und ja, dies ist ein SLI-Anschluss, wie es auch in der news steht. Seit kurzem hat nVidia auch eine GeForce 6800Le offiziell für SLI freigegeben;)
 
Kann man die Karte schon irgendwo erwerben ????

Oder kann mir zumindest mal einer sagen wie die deutsche Inno 3D Seite lautet ??

MFG MFX
 
Ich denke nicht das man mit der Karte mit dem übertackten glück hat.

Der Fehlende Stromanschluß verhindert hohe Taktfrequenzen, ich denke
auch aus diesem grund hat Inno den Speicher etwas runter gesetzt .
 
Der NV41 verfügt insgesamt über zwölf Pixel-Pipelines, wobei jedoch vier Pixel-Pipelines, wie oben beschrieben, standardmäßig deaktiviert sind.
Das verstehe ich nicht. Ist es nicht so, dass der NV41 das PCIe Pendant zum NV40 ist und somit 16 Pixelpielines haben sollte.

Bei einer 6800LE sind dabei nur 8 Pipes offen, bei einer 6800 sind es 12 und bei einer 6800 GT/Ultra sind es 16 - so dachte ich. Und wenn ich nun eine 6800LE auf GT Niveau bringen möchte, so muss ich die deaktivierten 8 Pipes freischalten um auf die 16 Pipes einer GT zu kommen bzw. nur 4 Pipes freischalten um auf 6800er Niveau (12 Pipes) zu gelangen.

Oder ist die Architektur des NV41 grundlegend anders mit 12 Pipes ausgelegt? Dann käme man aber nicht, wie es oben heißt, auf GT Niveau!

Zock schrieb:
Ich denke nicht das man mit der Karte mit dem übertackten glück hat.

Der Fehlende Stromanschluß verhindert hohe Taktfrequenzen, ich denke
auch aus diesem grund hat Inno den Speicher etwas runter gesetzt .
Den Stromanschluss halte ich bei einer maximalen Leistungsaufnahme von 39 Watt sowieso für überflüssig. Im BIOS die Spannung anheben und die Karte ist auch für höhere Taktraten bereit.
 
Zuletzt bearbeitet:
also wenn die echt 12PP hat, dann ist die 6800LE für PCIe echt der Hammer!
und wenn der Preis stimmt, ist sie empfehlenswerter als eine 6600GT

nur der Lüfter dieser Inno-Karte ist sehr laut
 
sebbekk schrieb:
Bei einer 6800LE sind dabei nur 8 Pipes offen, bei einer 6800 sind es 12 und bei einer 6800 GT/Ultra sind es 16 - so dachte ich. Und wenn ich nun eine 6800LE auf GT Niveau bringen möchte, so muss ich die deaktivierten 8 Pipes freischalten um auf die 16 Pipes einer GT zu kommen bzw. nur 4 Pipes freischalten um auf 6800er Niveau (12 Pipes) zu gelangen.
Oder ist die Architektur des NV41 grundlegend anders mit 12 Pipes ausgelegt? Dann käme man aber nicht, wie es oben heißt, auf GT Niveau!
.
Der NV41-Chip hat insgesamt 12 Pixel-Pipelines und wird bei der GeForce 6800 und 6800LE für PCIe benutzt.

Auf der PCIe-Version der GeForce 6800GT und 6800 Ultra dagegen wird der NV45 benutzt (NV40+HSI-Bridge), welcher über 16 Pixel-Prozessoren verfügt.
 
Wolfgang schrieb:
Der NV41-Chip hat insgesamt 12 Pixel-Pipelines und wird bei der GeForce 6800 und 6800LE für PCIe benutzt.

Auf der PCIe-Version der GeForce 6800GT und 6800 Ultra dagegen wird der NV45 benutzt (NV40+HSI-Bridge), welcher über 16 Pixel-Prozessoren verfügt.
Ok, hab ich wieder was gelernt. Aber wieso verwirrt ihr schon im ersten Satz den Leser mit:
Grafikkarten mit dem nVidia GeForce 6800 LE-Chip galten lange Zeit als ein preisgünstiger Geheimtipp, da man dort durch einen „Pipeline-Mod“ die deaktivierten Pixel-Pipelines reaktivieren und somit mit viel Glück die Performance einer deutlich teureren GeForce 6800 GT erreichen konnte.
Nach Lektüre dieser Einleitung muss der Normalverbraucher doch denken, dass das mit dieser 6800LE für PCIe auch möglich sei. Nicht jeder weiß, dass die 6800GT 16 Pipes hat!
 
sebbekk schrieb:
Nach Lektüre dieser Einleitung muss der Normalverbraucher doch denken, dass das mit dieser 6800LE für PCIe auch möglich sei. Nicht jeder weiß, dass die 6800GT 16 Pipes hat!
Ok, zugegeben, das ist verwirrend:)
Die ersten GeForce 6800LE Karten gab es für AGP und dort wurde der NV40 verbaut, also 16 Pixel-Prozessoren:)
 
Eigentlich ist das ganze nicht sehr herausragend für eine News.

Asus und Leadtek beiten schon lange 6800LE mit PCI-e und SLI an. Nur für den Preis bekomm ich schon fast zwei 6600GT's PCI-e und die sind im SLI besser als für das fast gleiche Geld eine 6800LE@12 Pipes (Wenn es läuft)
 
Zock schrieb:
Ich denke nicht das man mit der Karte mit dem übertackten glück hat.

Der Fehlende Stromanschluß verhindert hohe Taktfrequenzen, ich denke
auch aus diesem grund hat Inno den Speicher etwas runter gesetzt .

PCI-E liefert genug Strom von sich aus, da ist eben ein zusätzlicher Stromanschluß nicht nötig...

Der Speicher sollte 700 MHz stabil schaffen, schließlich ist er auch für 700 MHz spezifiziert, ich galube, die takten etwas runter um in den Benchmarks mit der AGP-version gleichauf zu liegen oder keine Ahnung warum :)
 
Zurück
Oben