News Nvidia strebt Fertigung des G92 in 55 nm an

Hm, wenn die 9800 GTX mit 2 x 6 pol. PCIe Adapter 850 MHz Core schafft, sind durch den Shrink denk ich mal, nochmal 100 MHz drin, dann wären wir bei 950 MHz für ne "9900 GTX". Beim Shader Takt ist da über 2 GHz sicher auch noch Spiel, aber ich denke nicht, dass selbst 0,8 ns GDDR3 mehr als 1200 MHz GDDR, sprich 2400 MHz bringen kann. Die RV770 soll doch angeblich 1 GHz Core - Takt ham. Naja, nV hätte das Release der 9er Serie etwas verschieben sollen und dann gleich den Shrink auf 55 nm (+ evtl DX 10.1 / SM 4.1 Support) bringen sollen - dann wär die 9800 GTX auch trotz 256 Bit SI deutlich schneller als die 8800er G80 Elite. Also, wenn der GT200 die GF 10 wird, was ich denke, dann wird die sicher als 9900er Serie kommen.

Naja, mal sehen, was da so kommt - ich werd mir sicher keine GF 9 holen - hoffe, meine neue 8800 GTS 1024 läuft 2 Jahre prima - wie auch schon die 7900 GT 512 davor.

Gruß
Edge
 
AMD wird aufholen wenn der RV 770 da ist, z.b. die HD 4870 & 4870 x2. ( 50 & schneller als Vorgänger.
 
nowe schrieb:
@bensen
Einerseits bemägelst Du keine gesicherten Werte für den RV770, andererseits weisst Du schon SO viel über den GT200...
was weiss ich denn? bzw. was hab ich über ihn erzählt? ->gar nichts

ich weiss nur das nvidia noch dieses jahr einen high-end chip bringt
und das neue highend-karten nicht für 200€ verkauft werden, sollte klar sein. da braucht man kein prophet für sein, sondern braucht nur in die vergangenheit zu schauen
 
gruffi schrieb:
Keine Ahnung, wo CB oder wer auch immer das aufgeschnappt hat. Aber selbst wenn das stimmen sollte, ich kann nirgendwo lesen, dass diese Modelle beim Launch exklusiv sein sollen.

Ok, hast recht, das ist bisher recht vage und man wird abwarten müssen.

gruffi schrieb:
Auch High-End Chips können abgespeckt werden, um Mainstream Modelle zu erhalten. Wenn das aber stimmen sollte, dann verwundert es mich umso mehr, dass hier einige diesen mit dem RV770 vergleichen wollen. Ob der Preis für GT200 Grafikkarten gerechtfertigt ist und wie viele diesen bezahlen wollen, sind doch dann die entscheidenden Fragen. Eine x86 CPU kann sich auch nicht mit einem z10 messen, dafür sind sie aber auch nicht konzipiert und haben andere Marktsegmente als Ziel.


Welche Nachteile?

Joa, Nvidia wird auch sicher nen Mainstream Chip haben, aber dieser wird wie zb beim g8 launch erst nach 3-6 monaten kommen.
Nen gt200 gts chip kann man zwar auch erwarten, aber wie schonma geschrieben wird selber der kaum weniger als 400€ kosten und dazu halt noch eine gtx für 600€.
So inner art wie bei g8 gts und g8 gtx würde ichs erwarten.
Wie du selber schreibst wird der rv770 inner etwas tieferen Preisklasse mitspielen, 300€ würden zu meinem beispiel zb passen mit ner x2 die dann auch 600€ kostet wie beim konkurrenten.
Der Konkurrent zum rv770 ist einfach der g92 in 55nm und sollte man wie amd auch gddr5 als speicher verwenden seh ichs als möglich ein, eine gleichwertige karte zu baun.
Solltes allerdings kein gddr5 werden seh ich für den chip eher schwarz

Ich meine die Effizienz als nachteil, auch bei den Treibern fürne x2 muss man immer etwas länger warten bis die spiele wirklich gut davon profitieren.
 
Der Kampf der Giganten geht weiter :P ..^^
 
AffenJack schrieb:
Der Konkurrent zum rv770 ist einfach der g92 in 55nm und sollte man wie amd auch gddr5 als speicher verwenden seh ichs als möglich ein, eine gleichwertige karte zu baun.
Das ist doch vollkommen egal. Der R700 wird so oder so schneller sein. Ich wüsste jedenfalls nicht, welche nVidia Karte bis dahin auch nur annähernd 1 TFlops bieten kann. Vielleicht die Dual Chip Lösung, aber dort wird ATI ja auch die Messlatte mit der X2 auf 2 TFlops hochschrauben. Die Frage ist nur, wie viel der Leistung in Spielen auf den Asphalt gebracht werden kann, da dies sicherlich die meisten Leute interessieren wird.
 
Also wenn es Nvidia immer noch net fertig bring eine 10.1ser karte zu bauen dann wechsel ich bald zu ATI/AMD , denn Sp1 Vista kommt bald und ATI hat schon seit Monaten ne 10.1ser am start:(. wenigenst sinkt der Strombedarf mit 55nm das is aber auch alles positive was ich sagen kann :(
 
jan4321 schrieb:
Also wenn es Nvidia immer noch net fertig bring eine 10.1ser karte zu bauen dann wechsel ich bald zu ATI/AMD , denn Sp1 Vista kommt bald und ATI hat schon seit Monaten ne 10.1ser am start:(. wenigenst sinkt der Strombedarf mit 55nm das is aber auch alles positive was ich sagen kann :(

Und was bringt dir bitteschön DirectX 10.1 :rolleyes:, es gibt bis jetzt kein Spiel was dieses feature unterstützt und, dass wird sich in der Zukunft nicht wesentlich ändern.
 
Zykon schrieb:
Und was bringt dir bitteschön DirectX 10.1 :rolleyes:, es gibt bis jetzt kein Spiel was dieses feature unterstützt und, dass wird sich in der Zukunft nicht wesentlich ändern.
@Zykon

Ja stimmt, aber Leute die die karte 3-4 jahre berhalten wollen, wie ich, schauen ab 2010/ mitte
2010 in die röhre, den ab dann wird 10.1 sicherlich weit verbreitet sein. Andererseits denk ich mal das es dann "NORMALE" 10ner spiele gibt, wo halt die 10.1ser grafik einfach sogut es geht mit 10.0 umgesetzt wird
 
Zuletzt bearbeitet:
Nur das es keine D3D10.1 only Spiele geben wird. ;)
Wichtiger ist die Leistung, besonders wer es zukunftsicher haben will, was nütz die modernste Karte, die langsam ist? Was hast du dann von dem Siegel D3D10.1?
Dann kannst du einen Regler ein Centimeter weiter nach rechts schieben, theoretisch, ruckelt halt dafür noch mehr.
 
Unyu schrieb:
Nur das es keine D3D10.1 only Spiele geben wird. ;)
Wichtiger ist die Leistung, besonders wer es zukunftsicher haben will, was nütz die modernste Karte, die langsam ist? Was hast du dann von dem Siegel D3D10.1?
Dann kannst du einen Regler ein Centimeter weiter nach rechts schieben, theoretisch, ruckelt halt dafür noch mehr.

So siehts aus :).


@jan4321:

2010? Da wirds eh schon DirectX11 geben ;).
 
Woher wissen eigentlich fast alle hier, das Nvidia nicht schon seit 1,5 Jahren an einem neuen Chip rumwerkelt?

Der G9x is doch eigentlich nichts anderes als ein G80. Ich denke der neue Chip - wenn er mal kommen sollte - wird abgehen wie ein Schnitzel. :D
 
Zurück
Oben