News Asus GeForce 8800 GS in Deutschland?

aktuelle Ati karten braucht man nicht aus Mitleid kaufen.

Sie sind Preisleistungstechnisch doch recht deutlich vor Nvidia und das in JEDEM Preisgebiet bis ~600€ :

- für unter 40€ gibts die 2400xt welche die 8500gt problemlos schlägt, weniger verbraucht und nichtmal die hälfte kostet(!!)

- für 70€ gibts die 2600xt welche die 8600gt schlägt, weniger verbraucht und 10€ weniger kostet

- für 140€ gibts die 3850 welche die 8600gts um 100% schlägt(!) und etwa gleichviel verbraucht (idle weniger, last mehr)

- für 200€ die 3870 welche fast an die 8800gt rankommt, dafür deutlich günstiger ist und im idle weniger verbraucht

- für 280€ gibts 3850 256mb CF was die 8800gt schlägt sowie je nach Spiel sogar die Ultra, aber leider etwas mehr verbraucht.

- für 320€ gibts 3850 512mb CF welches problemlos die neue 8800gts versägt und dabei nicht viel mehr verbraucht. Auch hier wird bei fast jedem Spiel die Ultra geschlagen.

- für 400€ gibts 3870 cf welches mit 8800gt SLI mithalten kann und alle Nvidia Einzelkarten problemlos schlägt.


In keinem dieser Preisgebiete hat nvidia aktuell eine Lösung mit besserer P/L.(Ausnahme : man hat kein CF fähiges Board)
Erst ab ~600€ kann man mit 8800gts SLI dem etwas entgegensetzen.
 
Zuletzt bearbeitet:
DANKE ! ! !

Genau meine Meinung.
Ich würde die Karten ja auch nicht aus Mitleid kaufen, sondern weil ich von der Firma überzeugt bin.

Und wer gibt denn bitte 600€ für GraKas aus?
Das machen doch die wenigsten, weil es bald nur noch die Hälfte kostet.

Grüße vom:
Jokener
 
ich meinte ja auch nicht aus mitleid

aber wenn ich mir eine neue grafikkarte kaufen, dann gebe ich ALLERHÖCHSTENS 200€ dafür aus

momentan habe ich halt die 3850 oder die 8800gs im auge

die 8800gs wird sicherlich etwas schneller sein, aber ich würde trotzdem eher zur 3850 greifen
 
woher nimmst du das jetzt schon wieder ?

wenn eine um 10% übertaktete 8800gs die werte einer standard 3850 im 3dmark erreicht, warum in aller Welt sollte eine normale dann schneller sein ?
 
Hm, wann kann man denn mit gescheiten Benchmarks rechnen?
Wird die 8800GS besser sein als die 8800GT 256MB (bei Auflösungen bis maximal 1280x1024)?
 
Zuletzt bearbeitet:
ich bin einfach davon ausgegangen, dass die 8800gs ungefähr auf gleichem niveau liegt wie die alte 8800gts......und die ist schneller als die 3850

aber genau wird man es ja sowieso erst wissen nach den ersten benchmarks.....oder gibt es schon welche??

8800gs 10% übertaktet = 3850 ??

hab ich was überlesen??

edit: die 3850 ist ja laut performancerating vor der 8800gts mit 320mb seh ich gerade ^^

nagut dann nehm ich alles zurück und behaupte das gegenteil
 
Zuletzt bearbeitet:
selftitled schrieb:
Hm, wann kann man denn mit gescheiten Benchmarks rechnen?
Wird die 8800GS besser sein als die 8800GT 256MB (bei Auflösungen bis maximal 1280x1024)?

auf gar keinen Fall und bei diesen Auflösungen schon gar nicht. Die 8800gt 256mb ist deutlich schneller.


@ Buddy83 :

bisher gibt es leider nur 3dmark Werte von einigen Seiten und leider auch nur mit bereits übertakteten Karten.

HIER dürfte alles stehen was bisher bekannt ist.
 
Wenn die 88GT noch günstiger und verfügbar wird, dann wird es für die GS wohl kaum Intessenten geben.
 
Für alle die hier rum meckern, wegen dem 192bit Speicherinterface (vor allem der gute Jokener!):

Hier wird nix absichtlich beschnitten oder so. Die 192bit Speicherinterface ergeben sich zwangsläufig aus der RAM Menge. Da jeder Speicherchip mit einem 32bit Speicherinterface an die GPU angebunden ist, und bei der GT 8 Speicherchips mit je 64MB (512MB) verbaut sind, was dann einem 256bit Speicherinterface entspricht, bei der GS aber nur 6 Chips mit je 64MB (384MB) verbaut werden, kommt man eben auch nur auf ein 192bit Speicherinterface.

So einfach ist das. Da wird nix absichtlich beschnitten oder so. Und die großen Neuerungen, die laut Jokener für den G100 aufgespart werden sind mir auch net bekannt. Der G92 ist nunmal ein Refresh-Chip!

Und nVidia nen Vorwurf zu machen, dass die 8800GTs so teuer sind ist auch quatsch. Ist nunmal freie Marktwirtschaft.
 
Naja... also erklär ich dir mal, warum ich mich aufrege:
WEIL nVIDIA DIE KARTEN NICHT SO GUT MACHT WIE MÖGLICH ! ! !
Die sind nur etwas besser als vorher, damit die Leute wieder kaufen gehen.
Aber nicht so gut wie möglich, damit es leicht ist eine stärkere Karte zu bringen.
Warum will nVidia das? Ach ja... weil die Leute dann wieder kaufen gehen.

Und das sich die 192 Bit des Speicherinterface aus dem verbauten vRam ergeben...
Wie kann ATi dann auf eine 2900XT mit 512MB vRam ein Speicherinterface von 512 Bit packen?
Und da ATi hier einfach nur vernünftige Chips verwendet, könnte nVidia das auch.
(Es sei denn, der Chip unterstützte das nicht... Ach ja... Tut er, denn die G80 hatten auch schon ein breiteres Interface...)

Und zum "hier wird nichts absichtlich beschnitten"...
Sorry, dass ich das nicht sofort erläutert habe...
Wie du schon ganz richtig erkannt hast, ist der G92 ein Refresh-Chip.
Da der G92 ein Refresh ist, müsste er auch mit allen Features des alten Chips plus Upgrades kommen.
Wie man bei Intel mit dem Penryn sieht... Kleine Detailverbesserungen...
Das kann nach belieben mit mehr Features gesteigert werden, aber es sollte mehr werden.
Aber was hat sich nun geändert? Als wichtigstes die Strukturbreite.
Der Chip wird jetzt in 65nm statt in 90nm gefertigt und verfügt somit über weniger Abwärme.
Daraus resultiert die, von nVidia auch genutzte, Option die Taktrate anzuheben.
Das macht eine Karte ja erstmal schneller und kühler/genauso heiß.
Vor allem aber senkt es die Fertigungskosten.
Dann ein paar Verbesserungen am Chip. Das bestreite ich nicht.

Soweit so gut... Aber genau hier haben die "Verbesserungen" auch schon aufgehört.

Die GeForce 8800GTX verfügte noch über acht SP-Units... Die 8800GT hat derer nur noch sieben.
Aus einem fehlenden SP-Block ergeben sich folgende Änderungen.

Die MADD's wurden bei den Karten zusammengekürzt.
Die GTX hatte noch 128, die GT noch 112.
Die ROP's wurden von 24 auf 16 reduziert.
Die TMU's wurden auch reduziert (64->56).
Dies ist je 1/8 weniger als bei der GTX.

Dies sind alles Veränderungen, die sich aus dem Gesamtkonzept der Karte ergeben.
Denn die GT sollte ja gar nicht schneller sein als eine GTX.

Damit auch das Laden der Texturen in den Speicher ja nicht zu schnell von statten geht, hat man eben das Interface verkleinert.
Die 2900XT zeigt hier wie es besser geht, auch wenn sie ansonsten eine schwache Karte war.

Nur warum bringt man keine Karte, die genau diese Features alle schon hat?
Warum versorgt man erst alle mit guten Karten, damit man ihnen später das bessere zeigen kann?

Würde man einen G92 mit 768MB bzw. 1024MB ausstatten und die anderen Merkmale der GTX wieder einbringen, hätte man eine verdammt gute Grafikkarte.
Eine die mal wieder zeigen würde was möglich ist.

Diese ganzen Reduktionen sind doch nur Marketingstrategie...
Man macht die Performance der GTX billiger (mit der GT) und bringt danach die nächste Generation.
Nur wenn das alles langsamer von statten geht, als es könnte... Dann stört es mich.
Denn dann hat man viele GT's verkauft und die Käufer stehen schon für das nächste Brett an...

Ich glaube das reicht als begründung aus... oder?

Und nicht, dass sich jetzt jemand meldet: Aber die hat doch mehr Transistoren !
Hat sie? Der Chip selbst erstmal schon. Aber es wurde ja auch der separate Chip zu Video-Kodierung in den G92 integriert...
Die Entiwcklung ist sicherlich positiv, weil billiger... Aber bringen tut es dem User direkt nichts an Performance.

Und natürlich kann ich nVidia den Vorwurf machen, dass die Karte zu teuer ist.
Gäbs mehr, wären die billiger... Marktwirtschaft... Da hast du recht.
Aber man will die GT's erstmal zu recht hohen Preisen anbieten, damit die GF9 nen besseren Start hat...
Das macht alles Sinn... Nur ist es nicht fair dem Kunden gegenüber.

Wenn man eine ATi kauft, dann hat man im Moment eine angemessene Performace für den Preis.
Bei nVidia im Moment (meiner Meinung nach) nicht wirklich.

Grüße vom:
Jokener
 
Was redest du denn da für einen Mist?!

Wie du vielleicht bemerkt hast, ist die 8800GT trotz des geringeren Speicherinterface in einigen Benchmarks der alten GTS überlegen und kommt nah an die Leistung einer GTX ran. Von daher schonmal kein Grund, sich aufzuregen.
Das die 2900XT ein Speicherinterface von 512bit hat, liegt daran, dass jeder einzelne RAM-Baustein (8 Stück mit je 64MB) mit 64bit angebunden ist. Würde man der Karte jetzt weniger RAM-Bausteine spendieren, würde auch das Speicherinterface kleiner werden. Ganz einfach.

Die Karten der 3800er Serie haben ja auch wieder "nur" ein 256bit Speicherinterface. Das reicht einfach aus und ist wohl günstiger zu produzieren.

Das die GT um eine Shadereinheit reduziert wurde wirkt sich ja nicht nur auf die Performance, sondern auch auf den Preis aus ;) Ist also nicht nur als negativ anzusehen.

Damit auch das Laden der Texturen in den Speicher ja nicht zu schnell von statten geht, hat man eben das Interface verkleinert.
Die 2900XT zeigt hier wie es besser geht, auch wenn sie ansonsten eine schwache Karte war.

Soso. Tut sie das. Ich verweise dann nochmal darauf, dass die 3800er Serie auch ohne 512bit Speicherinterface daher kommt und die 8800GT in Sachen Texturefüllrate (Link) die 2900XT sowas von in die Tasche steckt.

Würde man einen G92 mit 768MB bzw. 1024MB ausstatten und die anderen Merkmale der GTX wieder einbringen, hätte man eine verdammt gute Grafikkarte.
Eine die mal wieder zeigen würde was möglich ist.

Die aber sicherlich nicht für das Preissegment in Frage käme. Die 8800GT ist eine Midrange-Karte! Die Highendkarten kommen noch früh genug (siehe GTS 512MB).

Nur wenn das alles langsamer von statten geht, als es könnte... Dann stört es mich.
Sicher ginge es schneller. Aber nicht zu dem Preis. Du machst ATI doch auch keinen Vorwurft, dass es zur Zeit nur die 3870 gibt und nicht schon die 39XX.

Und natürlich kann ich nVidia den Vorwurf machen, dass die Karte zu teuer ist.
Gäbs mehr, wären die billiger... Marktwirtschaft... Da hast du recht.
Aber man will die GT's erstmal zu recht hohen Preisen anbieten, damit die GF9 nen besseren Start hat...
Das macht alles Sinn...

Das ist doch totaler Blödsinn! Die einzigen, die da wenn was für können sind die Händler. nVidia hat doch da nix von, wenn Alternate oder wie sie alle heißen 40 Euro mehr pro Karte verdienen. Und warum sollte der GF9 dadurch nen besseren Start haben? Weil die Leute dann erst letztens 250 statt 200 Euro für die GT ausgegeben haben und dadurch 50 Euro weniger in der Tasche haben?

Du solltest dich vielleicht beim nächsten Mal ausführlich informieren, bevor du so nen Quark schreibst.

Die einzige vernünftige Aussage ist die, dass ATI derzeit das bessere Preis/Leistungsverhältnis bietet, was aber einzig und allein am Preis der GT liegt. Wenn man das Glück hatte zwischendurch eine der günstigen GTs bei Saturn oder Mediamarkt abzustauben oder nen Händler gefunden hat, der sie für ~200€ liefern kann, dann sieht das schon ganz anders aus.

Und in Sachen Lieferbarkeit ist die 3870 auch kein Vorzeigemodell. Ich warte seit nem Monat auf ne 3870 von ASUS und habe mir für den Übergang eine von GeCube besorgt.
 
Nurmal so... Bevor du mir vorwirfst Quark zu schreiben...
Lies meinen Post nochmal. Und nochmal. Und nochmal.

Du wirst sicherlich nicht behaupten wollen, dass ein 512 Bittiges (bzw. 384 wie vorher) keinen Vorteil darstellen würde.
Und dass die Speicherchips zu Billigpreisen eingekauft werden (zumindest im Moment) ist auch bekannt.

Auf den Preis wirkt sich bei der GT fast gar nichts aus.
nVidia weiß was die Entwicklung gekostet hat und was das Silizium kostet, wo der Chip rein soll.
Ob du da nun die Shader etc drinnen lässt oder nicht ist für den Preis egal.
Denn die DIE-Fläche und damit die Kosten bleiben für nV gleich.
Lediglich die Entwicklung kann mehr kosten.

Warum rede ich denn Mist?
Die 2900XT hat ein breiteres Speicherinterface.
Und wenn die Chips dort mit 64 Bit angebunden werden können,
dann geht das bei nV auch. Mehr hab ich nicht gesagt.

Natürlich ist ein Ram-Chip mit 64Bit Anbindung teurer... Aber auch besser.

Der Preis, den nV für den Chip nimmt ist einfach ein Spaßpreis.
Die können sich so ziemlich aussuchen was sie dafür nehmen.
Sie wissen was Entwicklung und Silizium kosten.
Dann wird noch Leistung mit eingerechnet und spätestens an diesem Punkt ist der Preis nicht mehr realistisch.


Mein Punkt bei der 29XT war lediglich, dass man ein 512 Bittiges Interface bauen kann.
Deshalb auch mein Nebensatz: "auch wenn sie ansonsten eine schwache Karte war."

Na klar ist die GT eine Midrange-Karte.
Aber es wäre nur ein minimalistisch höherer Entwicklungsaufwand gewesen sie besser zu machen.
Und dass sich auf dem Chip der Block mit den deaktivierten Shadern/etc. befindet ist auch mehr als wahrscheinlich.

Natürlich wäre die Karte dann keine Midrange-Karte mehr...
Aber es wäre der Firma möglich gewesen die stärkere Karte jetzt auch zu bringen.
Nur will man das augenscheinlich nicht, da dann das gesamte Preisgefüge zusammengebrochen wäre.
Denn sogar jetzt kaufen noch Leute die GTX und Ultras...
Die alten G80-Chips müssen erstmal raus. Dann gibts den Zucker.

Und dass ich ATI keinen Vorwurf mache liegt daran, dass der Chip dort schon am Limit ist.
Zumindest kommt es mir so vor. Denn ansonsten wäre der letzte Strohalm nicht die X2.
Und bei nV steht ja wie gesagt die nächste Generation schon im Lager.


Und wenn du zuerst so lange Worte wie Marktwirtschaft benutzt und hinterher sagst, dass Alternate an einer Karte 40€ macht, dann weißt du nicht wovon du sprichst.

Wenn nV genug Chips liefert, die die Hersteller verbauen können, dann gibts mehr Karten.
Wenn ein Händler nun 10 Karten hat und alle für 250€ loswird, dann nimmt er 250€.
Wenn aber jeder Händler soviele bekommt, wie er verkaufen kann, dann geht der Preis runter.
Nur das dies nicht der Fall ist. Was wiederum nicht an den Händlern sondern an nV liegt.

Und danke für den Hinweis mit dem informieren... Hatte ich...
Nur muss man meinen Post auch so lesen, wie er gedacht ist.

Vielleicht ist die 3870 nicht besonders gut lieferbar, aber ich könnte mir morgen früh eine im Laden kaufen gehen.
Bei mir in der Stadt sind die beim Fachhändler erhältlich.
Etwas über Geizhals-Preis, aber erhältlich.

Und wieso vergleichst du eigentlich eine 3870 @ Standardpreis mit einer günstig gekauften GT?
Was wenn ich eine 3870 für den Preis einer 3850 bekomme? Dann sieht die GT schon wieder alt aus... Soviel Dazu.

Grüße vom:
Jokener
 
versteh das problem nicht
der G92 soll keine rekorde in sachen performance aufstellen sondern billig zu fertigen sein
ein breites speicherinterface kostet nun mal transistoren und ein komplexeres pcb
kommt dem preis nicht grad zur gute

weiss überhaupt nicht was ihr mit euren mit 64bit angebundenen speicherchips wollt :confused_alt:
die sind auch bei der 2900xt mit 32bit angebunden, nur sind es 16chips

ati und nvidia könnten chips bauen die extrem viel schneller sind als heutige, meintwegen auch mit nem 1024bit SI. nur das bringt herzlich wenig wenn dieser chip nicht wirtschaftlich ist
 
Zuletzt bearbeitet:
@bensen: Mein Fehler. Du hast natürlich recht, es sind doppelt so viele Chips, nicht 64bit Speicherinterface (auf der Rückseite sind ja auch nochmal 8).

@Jokener: Du redest nicht nur Mist, du versuchst dich auch noch raus zu reden.


Klar Behaupte ich, dass ein Speicherinterface von 512bit nicht den riesen Vorteil bringt. Schau dir mal Vergleichstests zwischen der 2900Pro mit 512bit und 256bit Interface an. Gleiche Karte, halbiertes Speicherinterface, kaum Leistungsunterschied.

Ob du da nun die Shader etc drinnen lässt oder nicht ist für den Preis egal.

So ein Quatsch. Die Chips werden günstiger, weil weniger "Schrott" produziert wird. Früher konnten nur die Chips benutzt werden, auf denen alle 8 Shader-Einheiten OK waren. Jetzt wird ja einfach (UNVERSCHÄMTHEIT) eine deaktiviert, ergo kann auch eine defekt sein, weil sie ja dann deaktiviert wird.

Die höheren Kosten für das größere Speicherinterface wurden ja schon von bensen erklärt.

Ich habe deine Posts schon richtig gelesen. Sonst wäre die billige Ausrede
Die 2900XT hat ein breiteres Speicherinterface.
Und wenn die Chips dort mit 64 Bit angebunden werden können,
dann geht das bei nV auch. Mehr hab ich nicht gesagt.
nicht die einzige direkte Antwort auf meinen Post gewesen. Du hast behauptet, dass man an der 2900XT sehen könnte, dass nVidia das Speicherinterface beschnitten hat, damit die Texturen nicht so schnell eingelesen werden können. Nix dergleichen sieht man.

Die glorreiche Bemerkung mit der Marktwirtschaft und den 40€ lass ich mal aussen vor. Ich werde beim nächsten Mal kenntlich machen, wenn ich absichtlich übertreibe. Denke mal, der Rest hier hat verstanden, worauf ich hinaus wollte.

Und übrigens kann nVidia immer noch nix dafür, dass die Preise oben sind. Die Händler zwingt keiner, die Karten über der UVP zu verkaufen! Abgesehen davon, dass es nVidia sicherlich egal ist, ob die alten GTX verkauft werden oder nicht. Die Hersteller der Karten wird das eventuell interessieren.

Und ich vergleiche die 3870@ Standardpreis nicht mit einer günstig gekauften GT (wie gesagt, informieren, dann posten). Die UVP der GT liegt bei 199€ und die der 3870 auch in dem Bereich (wenn ich nicht irre).

Und ich finde es gut, dass du so Aussagen triffst wie
Und dass ich ATI keinen Vorwurf mache liegt daran, dass der Chip dort schon am Limit ist.
Zumindest kommt es mir so vor.
. Geballte Kompetenz :D

Ich schau nachher auchmal in meinen Kaffeesatz, vielleicht hat der auch noch was beizusteuern.
Fakt bleibt einfach, du hast groben Unfug erzählt. Ob aus Unwissenheit oder weil du auf ATI stehst, keine Ahnung.

Ich hab dir, soweit mir bekannt, die Fakten dazu weitesgehend dargelegt. Jetzt liegt es an dir, zu sagen "OK, wieder was dazu gelernt" oder halt weiterhein auf deiner Ansicht zu beharren.
 
Zuletzt bearbeitet:
Erstmal danke an bensen... Ich hatte mir auch nur Bilder der 29XT angeguckt und nicht dran gedacht, dass die auch auf der Rückseite was drauflöten können...

Und was du als rausreden bezeichnest Hansdampf, das war nur ein darlegen meiner Argumente...

Denn um einen Leistungsvergleich zwischen einem 256 Bit und einem 512 Bit Interface zu ziehen, kannst du keine alte Karte mit geringer Leistung nehmen.
Die 29Pro ist zwar nicht soooo alt, aber Leistungsmäßig konnte sie keinen Blumentopf gewinnen.
Da ist es klar, dass die Karte keine allzugroßen Unterschiede produzieren wird.
Das ist genauso wie bei der 29Pro oder 88GT, die mit 1024MB vRam kommen.
Der Speicher kann auch nicht perfekt genutzt werden und bringt somit nicht viel.

Und natürlich ist mir bewusst, dass das deaktivieren eines Shader-Blocks den Ausschuss reduziert.
Sieht man ja demnächst auch bei AMD's Tri-Cores, warum das gemacht wird.
Insofern ist es natürlich nicht "nur" negativ, denn man kann auch beschnittene Karten verkaufen.

Aber die vollwertigen nicht zu bringen, das ist es was mich stört.
Beim G80 hat man das mit GTX/Ultra und GTS ja auch gemacht, wie es sein sollte.
Und da hat man auch beide Karten gleichzeitig gebracht.

Und dass ich geschrieben habe, dass nV absichtlich das Speicherinterface klein Gehalten hat, das stimmt sehr wohl.
An der 2900XT sieht man, dass es mögich ist eine Karte mit 512MB und 512Bit Interface zu bauen.
Also ginge das beim G92 (nicht 88GT, da Midrange-Karte) auch.
Vielleicht habe ich mich in der Auswirkung auf die Gesamtperformance verschätzt (die Ultras brauchen ja auch keine 512 Bit).
Aber vom Prinzip her ist ein breiteres Interface immer von Vorteil.


Natürlich interessieren die Verkaufszahlen der alten Karten auch nV.
Denn die Jungs müssen ihre Chips ja auch beim nächsten mal an die Hersteller verkaufen.
Wenn die Hersteller also noch massenhaft G80 liegen haben, während ein stärkeres Produkt kommt,
dann haben die beim nächsten Mal bestimmt weniger Lust die nV Chips zu kaufen.
(Oder reduzieren die Bestellmenge...)
Und das Asus, EVGA und wie sie alle heißen sich für ihre Zahlen interessieren, das geb' ich dir schriftlich.

Außerdem hast du hier versucht dich rauszureden.
Mit deinem Statement, dass man vielleicht bei MM oder so eine GT günstig bekommen hat (also unterhalb des momentanen Standardpreises von 220-250€),
hast du gesagt, dass eine günstige GT besser sei als eine 3870 @ Standardpreis (180-200€).
Das ist so auch richtig (mehr Leistung, gleicher Preis), aber ein Vergleich von Äppeln und Birnen.
Denn wenn ich mir morgen eine 3870 für 150€ zulegen kann, dann ist die auch wieder besser vom P/L-Verhältnis.

Natürlich war das mit dem Statement dazu, dass der ATI-Chip mehr oder weniger am Limit ist nur geschätzt.
Aber wie sehen denn die News in der Gerüchteküche aus?
ATI kommt erstmal mit der X2 und nV kommt mit einer ganzen Pallette an Chips.
(G94, G100, davon jeweils verschiedene Versionen)
Die nächste Generation bei ATI ist da noch etwas weiter entfernt.
Also Kaffesatz ja, aber Kaffesatz mit Tageszeitung drunter.

(Die kleineren Karten und deren Chips interessieren bei dem "neuen" ja nicht ernsthaft.
Es geht mir dabei um die Karten die zum Zocken geeignet sind...)


Als um das mal so zu sagen: Teilweise hattest du recht, aber mein eigentliches Argument wurde missverstanden.
Denn ich wollte keine "Über-GT", die für 250€ ein Triple-SLI-Gespann aus Ultras zersägt...
Das wäre natürlich unrealistisch und vollkommen abwegig.
Was ich vielmehr meinte war, dass der G92-Chip als solches zu viel mehr in der Lage ist.
Lässt man ihm den zusätzlichen Shader-Block und gibt man ihm ein besseres Interface,
dann wird er ganz sicher schneller als eine Ultra.
Denn im Endeffekt basiert er auf dem Chip der Ultra und damit auf ihrer Leistung.
Diese Abstufung von Chip-Güteklassen in Karten gab es wie gesagt bei GTS, GTX und Ultra ja schon.

Dies lässt also nur den Schluss zu, dass nV entweder ganz plötzlich von TSMC nur noch Chips mit genau einem defekten Shader-Block bekommt,
oder dass es eben doch möglich wäre einen unkastrierten G92 zu bringen.
Da TSMC aber nicht plötzlich schlechtere Anlagen verwendet, lässt sich ersteres fast ausschließen.
Es sei denn der Umstieg auf die kleinere Strukturbreite hat Probleme mitgebracht.
Dies ist aber auch nicht sehr wahrscheinlich, denn die GT's lassen sich ja takten ohne Ende.

Hoffentlich hab ich mich jetz mal etwas verständlicher ausgedrückt.

Grüße vom:
Jokener
 
verstehe dich irgendwie nicht
einen komplett unkastrierten G92 gibt es doch in form einer 8800gts 512mb


und ein größeres speicherinterface kann ein G92 nun mal nicht haben, sonst wäre es kein G92 :rolleyes:
kannst ja nicht einfach nur speicher draufkleben und hoffen das die daten sich irgendwie dorthin verirren

das konzept ist eben gewesen ein billigeren chip zu produzieren(als den G80)
mit nem 512bit SI wäre der chip ja einiges größer geworden
 
Jokener, wir werden uns langsam einig :)

Beim Preisvergleich der beiden Karten ging es mir um die UVP und damit auch den von nVidia und ATI angedachten Preis für die Karte (natürlich bei passender Verfügbarkeit, klar). Und es ist auch logisch, dass die 3870, sollte es sie für 150€ geben, natürlich wieder ein besseres P/L Verhältnis hätte. Aber davon ist ja nicht auszugehen. Wenn die Verfügbarkeit beider Karten gegeben wäre, hätten wir etwa 20€ Preisunterschied zu Gunsten von ATI. Dass die 3870er auf 150€ absacken ist eher unwahrscheinlich.

Zum Speicherinterface verweise ich nochmal auf die 2900Pro. Klar ist das keine Highend-Karte mehr, aber man kann gut sehen, dass das 512bit Speicherinterface derzeit noch übertrieben ist. Einfach ein bißchen den RAM-Takt erhöht und gut ist. Klar ist mehr immer besser. Aber dann könnten wir uns auch drüber streiten, warum die Karten nicht auch 200MHz mehr Chiptakt und 2GB V-RAM haben.

bensen bringst ja auf den Punkt. Die neue 8800GTS ist ne vollwertige G92 Karte. Und da es halt nur ein Refresh des G80 ist, sind eben keine großen Modifikationen drin gewesen. Und solange ATI gegen die neue GTS nix entgegen zu setzen hat, wird nVidia auch noch warten, ein weiteres Schlachtschiff raus zu bringen. Vollkommen verständlich.
 
Naja... die GTS ist nicht wirklich als vollwertig zu bezeichnen.
Denn die ROP's wurden von 24 auf 16 reduziert. Doch gerade die sind für die Performance sehr wichtig.
Da nützt es auch nicht viel, dass beim neuen Herstellungsverfahren die TMU's und TAU's jeweils in Paaren verwendet werden.
Denn ansonsten müsste eine G92 GTS ja eine G80 Ultra versägen.
Und genau das findet nicht statt.

Das einzige was stärker ist als eine Ultra, ist eine 3870, in ganz speziellen Anwendungsfällen.
(Nicht das jemand behauptet ich würde eine 3870 einer Ultra vorziehen...)

Denn welchen Grund gibt es denn sonst, dass eine G92 GTS langsamer ist als eine Ultra?
Und das ist sie zumindest in den interessanten Auflösungen.
Die Taktraten? Allesamt angehoben... (Es sei denn man nimmt die extremen Ultras).
Sonstige Spezifikationen? Auf dem Papier alle besser...
Die einzigen mir ersichtlichen Gründe sind das Speicherinterface :D und die ROP's...

Natürlich könnte man eine bessere Karte bringen...
Und genau DAS ist es doch was mich so stört.
nVidia hält Innovationen zurück, weil die Mitbewerber noch nicht so weit sind.
Zumal man eine G92 Ultra ja auch billiger verkaufen müsste als eine G80 Ultra.
Denn die G80-Konkurrenz der Ultra hat zu ihrem Preis geführt.
Würde man nun eine auf G92-Basis bringen, müsste sie billiger sein.

Zusätzlich hat man ja auch noch die Möglichkeit für Triple-SLI weggelassen.
Und das wäre zum Beispiel bei den Preisen der neueren Karten erstmals realistisch.

Wie gesagt... Mich stört die Tatsache, dass sie nicht alles verkaufen was sie haben. :D

Grüße vom:
Jokener
 
Jokener schrieb:
Naja... die GTS ist nicht wirklich als vollwertig zu bezeichnen.
Denn die ROP's wurden von 24 auf 16 reduziert. Doch gerade die sind für die Performance sehr wichtig.

Zumal man eine G92 Ultra ja auch billiger verkaufen müsste als eine G80 Ultra.
Denn die G80-Konkurrenz der Ultra hat zu ihrem Preis geführt.
Würde man nun eine auf G92-Basis bringen, müsste sie billiger sein.
ich weiss nicht was daran so schwer zu verstehen ist
der G92 hat nur 4rop cluster
also kann man auch schlecht mit diesem chip mehr rops oder ein breiteres speicherinterface realisieren

was soll denn ne G92ultra sein?
mehr als takt anheben kann man nicht mehr machen

mal davon abgesehen frage ich mich wie du darauf kommst das gerade die rops so wichtig sind?
 
Wie war das gleich, mit dem informieren?

Denn welchen Grund gibt es denn sonst, dass eine G92 GTS langsamer ist als eine Ultra?
Und das ist sie zumindest in den interessanten Auflösungen.
Die Taktraten? Allesamt angehoben... (Es sei denn man nimmt die extremen Ultras).
Sonstige Spezifikationen? Auf dem Papier alle besser...
Die einzigen mir ersichtlichen Gründe sind das Speicherinterface und die ROP's...

Der Speichertakt der Ultra ist Beispielsweise höher.

Du musst einfach mal einsehen, dass die Ultra und die GTS512 in 2 verschiedenen Ligen angesiedelt sind. Du musst die GTS512 mit der alten GTS vergleichen. Und dann hast du einen schönen Leistungssprung für das passende Geld. Gleiches gilt für die 8800GT.

Und wenn du selbst sagst, dass nVidia keine schnelleren Karten raus bringt, weil ATI nichts dagegen zu setzen hat, dann solltest du vielleicht anfangen und die Schuld ATI zu geben ;)

Abgesehen davon ist das mehr als selbstverständlich. Sowohl ATI, als auch nVidia sind Wirtschaftsunternehmen. Warum sollten sie was schnelleres aufn Markt bringe, wenn sich die aktuelle Hardware gut verkauft? Das macht ATI/AMD genauso wie nVidia oder Intel.

Sag einfach, dass du was gegen nVidia hast und gut. Ist dir ja keiner böse drüber. Aber dann die ganze Zeit so einen Mist zu erzählen bringt doch nix.
 
Zuletzt bearbeitet:
Zurück
Oben