Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
nVidia GeForce 8600 Ultra/GT
- Ersteller w0mbat
- Erstellt am
Apfelkuch3n
Cadet 4th Year
- Registriert
- Aug. 2006
- Beiträge
- 96
Oke, danke dir. Dann warten wir einfach mal.
tAk
Vice Admiral
- Registriert
- Feb. 2005
- Beiträge
- 7.146
Guenni584 schrieb:Abwarten ist nur eine Vermutung, kann auch mehr oder weniger sein aber ich denke minimum die leistung einer 7900GTO wird es schon sein.
Das ist zwar im Moment noch reine Spekulation, aber wenn die technischen Daten wirklich der Wahrheit entsprechend könnte das in etwa hinkommen. Interessant wird sicherlich auch wie beim G80, die zukünftige DX10-Leistung.
mFg tAk
Sebastian
Vice Admiral
- Registriert
- Apr. 2004
- Beiträge
- 6.273
Aus relativ verlässlicher Quelle (VR-Zone) geht seit gestern hervor, dass die Midrange Modelle der GeForce 8 wie gehabt nur mit 128bit breitem Speicherinterface ausgestattet sein werden.
Darüber hinaus wird man offensichtlich an den bislang bekannten Modellbezeichnungen festhalten, so dass der G84 in Form einer 8600 GT und einer schwächeren 8600 GS erscheinen soll.
Egal ob GT oder GS soll die GeForce 8600 über 64 Shader Prozessoren verfügen. Der Leistungsunterschied wird damnach einzig und allein durch eine unterschiedliche Taktung hervorgerufen. Eine 8600 GT soll mit 650/1800MHz takten und eine 8600 GS mit 550/1400MHz. Vermutlich wird das Taktpotential der GS durch eine geringere GPU Spannung sowie lansameren GDDR3 limitiert werden.
Darüber hinaus wird man offensichtlich an den bislang bekannten Modellbezeichnungen festhalten, so dass der G84 in Form einer 8600 GT und einer schwächeren 8600 GS erscheinen soll.
Egal ob GT oder GS soll die GeForce 8600 über 64 Shader Prozessoren verfügen. Der Leistungsunterschied wird damnach einzig und allein durch eine unterschiedliche Taktung hervorgerufen. Eine 8600 GT soll mit 650/1800MHz takten und eine 8600 GS mit 550/1400MHz. Vermutlich wird das Taktpotential der GS durch eine geringere GPU Spannung sowie lansameren GDDR3 limitiert werden.
GeneralHanno
Commander
- Registriert
- Juni 2006
- Beiträge
- 2.538
aber es muss doch auch ne karte zwischen ner 8600GT mit 128 bit und der 8800GTS mit 320bit kommen, also eine karte mit 256 bit und 512 mb ram. vll ne 8700 ...
Sebastian
Vice Admiral
- Registriert
- Apr. 2004
- Beiträge
- 6.273
256bit sind zunächst mal total uninteressant (die 7600 GT lebt auch gut mit 128bit) und es wird mit ziemlicher Sicherheit 8600 GTs mit 512 MB geben.
Wer unbedingt meint, ein breiteres Speicherinterface haben zu müssen, der wartet einfach auf ein abgespecktes High End Modell: Kleinere GeForce 8800 für unter 300 Euro?
Wer unbedingt meint, ein breiteres Speicherinterface haben zu müssen, der wartet einfach auf ein abgespecktes High End Modell: Kleinere GeForce 8800 für unter 300 Euro?
Zuletzt bearbeitet:
Wolfenstein 2k2
Commander
- Registriert
- Okt. 2002
- Beiträge
- 2.902
Sehe ich auch so. Die Lücke zwischen der 8600 GT (Ultra, was auch immer) und der 8800 GTS könnte wohl die abgespeckte Variante der 8800 GTS schließen, sofern diese um die 275€ kosten wird.
Wolfenstein 2k2
Commander
- Registriert
- Okt. 2002
- Beiträge
- 2.902
Ja schon, aber ich schätze die abgespeckte Version der 8800GTS schon so leistungsfähig ein, dass 250€-275€ ein gerechtfertigter Preis sind gegenüber der 8600er Serie, sofern die technischen Daten stimmen sollten. Aber abwarten, bislang nur alles Spekulationen.
Irgendwie vermisse ich die Zeiten, als man alle Modelle einer Generation noch an einer Hand abzählen konnte Vielleicht gibt es ja noch ein Zwischending zwischen abgespeckter 8800 GTS und 8600 GT (Ultra, was auch immer), 320 MB RAM, noch niedrigere Taktraten, vielleicht werden noch weitere Shader Einheiten (Stream Prozessoren) absichtlich abgeschaltet oder sind von vornherein defekt, aber der Chip ist noch funktionstüchtig (wieso also wegwerfen).
Irgendwie vermisse ich die Zeiten, als man alle Modelle einer Generation noch an einer Hand abzählen konnte Vielleicht gibt es ja noch ein Zwischending zwischen abgespeckter 8800 GTS und 8600 GT (Ultra, was auch immer), 320 MB RAM, noch niedrigere Taktraten, vielleicht werden noch weitere Shader Einheiten (Stream Prozessoren) absichtlich abgeschaltet oder sind von vornherein defekt, aber der Chip ist noch funktionstüchtig (wieso also wegwerfen).
Zuletzt bearbeitet:
naja die 7600gt ist ja wohl auch schwer vergleichbar mit ner 8600gtsebbekk schrieb:256bit sind zunächst mal total uninteressant (die 7600 GT lebt auch gut mit 128bit) und es wird mit ziemlicher Sicherheit 8600 GTs mit 512 MB geben.
der chip ist extrem stärker
so langsam könnten sich die 256bit durchsetzen
oder wenigstens 192bit, wäre imho ein guter kompromiss gewesen, 384mb ist auch ne gute speicherausstattung für ne graka in dem preisbereich
Sebastian
Vice Admiral
- Registriert
- Apr. 2004
- Beiträge
- 6.273
Wenn mehr als 128bit nötig wären, würde nVidia auch mehr einführen, denn im Midrange werden die Kunden nocht nicht so wie im Low End mit unterdimensionierten Interfacegrößen abgezockt.
Das Geheule um die 128bit war bei der Einführung der 7600 GT aber schon dasselbe.bensen schrieb:naja die 7600gt ist ja wohl auch schwer vergleichbar mit ner 8600gt
der chip ist extrem stärker
Zuletzt bearbeitet:
conglom-o
Vice Admiral
- Registriert
- März 2006
- Beiträge
- 6.479
Im Moment ist das doch eh alles "im-Nebel-Gestochere". Die einen Quellen sagen dies, die anderen das - ich würde sagen: warten wir doch mal darauf, was nvidia sagt .
Meiner Meinung nach wird aber eine 8600 Ultra mit 128Bit für mich weit weniger interessant als mit 256 Bit.
Meiner Meinung nach wird aber eine 8600 Ultra mit 128Bit für mich weit weniger interessant als mit 256 Bit.
@sebbek
die schere texelfüllrate-speicherbandbreite geht immer mehr auseinander
meinst du das das ewig so gut geht?
letztendlich ist das nur eine frage der wirtschaftlichkeit
wir sind ja auch mehrere generationen mit 256bit im high-end gut ausgekommen, der schritt nach 384bit war vollkommen überflüssig
so lautet deine argumentation
die schere texelfüllrate-speicherbandbreite geht immer mehr auseinander
meinst du das das ewig so gut geht?
letztendlich ist das nur eine frage der wirtschaftlichkeit
wir sind ja auch mehrere generationen mit 256bit im high-end gut ausgekommen, der schritt nach 384bit war vollkommen überflüssig
so lautet deine argumentation
Sebastian
Vice Admiral
- Registriert
- Apr. 2004
- Beiträge
- 6.273
Meine Argumentation lautet, dass nVidia es im Midrange noch für vertretbar hält, 128bit zu verwenden und die dürften da mehr Ahnung von haben, was hier Sinn macht und was nicht. Klar wird man eines Tages auch im Midrange mehr als 128bit finden, aber ich springe nicht von der Brücke, wenns noch nicht so weit ist!
Von mir aus könnt ihr doch alle weiter rumheulen, dass 128bit hinterm Mond sei. Midrange bedeutet Preisleistung. Wer nur mit 256bit und mehr leben kann, soll wie gesagt auf ne abgespeckte High End Karte warten.
Von mir aus könnt ihr doch alle weiter rumheulen, dass 128bit hinterm Mond sei. Midrange bedeutet Preisleistung. Wer nur mit 256bit und mehr leben kann, soll wie gesagt auf ne abgespeckte High End Karte warten.
conglom-o
Vice Admiral
- Registriert
- März 2006
- Beiträge
- 6.479
Naja, Midrange bedeutet aber nicht unbedingt 128 Bit - siehe ATI. Am besten ist es wohl, auf Tests zu warten - dann wird man sehen, ob die 128 Bit (von denen wir ja noch nicht einmal wissen, ob sie so kommen) die Karten zu sehr einschränken.
Fakt ist aber, dass ich mir von einer Midrangekarte der G8x Generation weit mehr Leistung erwarte als von einer Midrangekarte á la X1950Pro - ob nun mit 128 oder 256 Bit ist mir dann egal.
Fakt ist aber, dass ich mir von einer Midrangekarte der G8x Generation weit mehr Leistung erwarte als von einer Midrangekarte á la X1950Pro - ob nun mit 128 oder 256 Bit ist mir dann egal.
@tak
joa ist nicht ganz unerheblich
zum einen fällt der g86 größer aus, da er doppelt so viele rop-partitions haben müsste
zuma anderen wird das baord-layout komplexer, da immerhin doppelt so viele speicherbausteine angebunden werden müssen
joa ist nicht ganz unerheblich
zum einen fällt der g86 größer aus, da er doppelt so viele rop-partitions haben müsste
zuma anderen wird das baord-layout komplexer, da immerhin doppelt so viele speicherbausteine angebunden werden müssen
schade ich dachte mit dir könnte man sachlich diskutierensebbekk schrieb:Von mir aus könnt ihr doch alle weiter rumheulen, dass 128bit hinterm Mond sei.
-Nighthawk
Cadet 4th Year
- Registriert
- Jan. 2007
- Beiträge
- 106
Ich interessiere mich auch für eine 8600Gt Ultra oder was auch immer, da mir die 350€ für ne GTS zu Teuer sind. Wenn mir einer von euch beiden vieleicht kurz erklären könnte was das
Leistungsmäßig (Ich weiss Leistung kann man erst nach erscheinen genau wissen aber was das so grob mit sich bringt) zu bedeuten hat mit 128 Bit und 256 Bit?
Leistungsmäßig (Ich weiss Leistung kann man erst nach erscheinen genau wissen aber was das so grob mit sich bringt) zu bedeuten hat mit 128 Bit und 256 Bit?
Sebastian
Vice Admiral
- Registriert
- Apr. 2004
- Beiträge
- 6.273
Die 8600 GT wird zwar voraussichtlich "nur" ein 128bit breites Speicherinterface haben. Dennoch könnte sie sich in den Benchmarklisten gut platzieren und damit in die Fußstapfen der 6600 GT und der 7600 GT treten, welche wahre Preisleistungskracher waren.
Demzufolge wäre es egal, was für ein Speicherinterface zum Einsatz kommt. Denn was zählt, ist die Leistung, die man für sein Geld bekommt.
Von einem kritischeren Standpunt aus, wie bensen ihn vertritt, könnte man meinen, dass der G84 durch die Speicheranbindung ausgebremst wird. Es könnte auch sein, dass 256bit gar nicht viel teurer sind.
Allen Überlegungen zu Trotz wird nVidia den G84 wohl mit 128bit anbinden. Sollte sich die Karte gut platzieren, wären diese Diskussionen genauso wie damals um die 6600 GT und die 7600 GT auch hinfällig. Gegen ein bestechendes Preisleistungsverhältnis wird man unterm Strich nun mal nicht viel sagen können.
Demzufolge wäre es egal, was für ein Speicherinterface zum Einsatz kommt. Denn was zählt, ist die Leistung, die man für sein Geld bekommt.
Von einem kritischeren Standpunt aus, wie bensen ihn vertritt, könnte man meinen, dass der G84 durch die Speicheranbindung ausgebremst wird. Es könnte auch sein, dass 256bit gar nicht viel teurer sind.
Allen Überlegungen zu Trotz wird nVidia den G84 wohl mit 128bit anbinden. Sollte sich die Karte gut platzieren, wären diese Diskussionen genauso wie damals um die 6600 GT und die 7600 GT auch hinfällig. Gegen ein bestechendes Preisleistungsverhältnis wird man unterm Strich nun mal nicht viel sagen können.
Ähnliche Themen
- Antworten
- 3
- Aufrufe
- 1.078
- Antworten
- 29
- Aufrufe
- 6.156
- Antworten
- 11
- Aufrufe
- 3.402
- Antworten
- 8
- Aufrufe
- 1.332
- Antworten
- 7
- Aufrufe
- 5.283