News Fotos und weitere Infos zum GT200 von Nvidia

Die neuen Nvidias müssen sich erstmla gegen die 4870X2 behaupten. Der Preis wird malwieder übel hoch, da die produktionskosten von dem CHIP ALLEINE ja schon 100 euro kosten. Und gewinn will Nvidia ja auch noch haben
 
Erinnere dich zurück an die Geforce 3, diese lebte auch nur eine sehr kurze Zeit.

Zu AMD glaube auch das sie im Moment sehr vorsichtig sind, weil sie sich keinen Fehlschlag mehr leisten können. Also lieber auf sicher gehen und keine Experiemente machen.

Nein ich meine eher von der Denk Idee ist AMD/ATI der Sieger. Lieber Middleend statt highend.

Im Prinzip ist es überall gleich. Für die bezeichnung Highend wird einfach 30% Pauschale verlangt.
Siehe Intel Core QX9750.
 
Zuletzt bearbeitet:
Ich finde es ein kleinen unwichtigen Schritt (also DX10.1). Es wird ja noch nicht mal ordentlich DX10 unterstützt.

Insgesamt denke ich werden sie vor Weihanchten dann bestimmt ein kleiner Fertigungsprozess angefangen mit dem GT200. Sowas wie die 88GT raus bringen und das Weihnachtsgeschäft mit nehmen. Dann wird auch der GT200 für kleine Leute interresanter.
 
Zuletzt bearbeitet von einem Moderator:
"gleichen Weg wie ATi gehen und mehrere GPUs auf den Grafikkarten einsetzen".
Das bedeutet nicht mehrere Kerne in einer GPU, sondern dass bedeutet 2 GPUs auf einer Karte (also mit internem SLI dann) und dass bringt die bekannten nachteile mit sich.

Mehrere Kerne wäre ein echter fortschritt, da müssen die aber noch ne ganze weile forschen ;) Dass wäre dann auch ne ganz neue Architektur.... wird mann dann sehen, wenn Intel sein "Larabee" rausbringt, wass dass für die Leistung bedeutet.

Er redet hier von Single-GPU, nicht von Single-Core-GPU ;)
Multi-GPU (so wie es im Text steht) wäre echt beschi****, weil dass dann mit internem SLI ist, mit allen Nachteilen (also dann mit 2 GPUS auf einer Karte).
Multi-Core-GPU wäre ein echter Fortschritt, aber dass wird wohl erst mit Intels "Larabee" kommen, und dann wird man sehen, wieviel Leistung dass bringt.

Du hast doch auch keine 2 Prozessoren in deinem PC, oder ?
Multi-CORE-GPU= 1xGPU mit mehreren Kernen = wäre gut, muss aber erst entwickelt werden mit neuer Architektur ;)
Multi-GPU = 2 einzelne Grafikkerne = schlecht, weil es über internes SLI läuft mit den bekannten Problemen.
 
Zuletzt bearbeitet von einem Moderator: (doppelpost)
Als DX10.1 damals angekündigt wurde hat man gesagt man will den Spielraum für Abweichungen vom DX10 Standart verkleinern um Optimierungen in die eine oder andere Richtung zu begrenzen. Wie Du sagst wird ja DX10 schon nicht richtig unterstützt, das ist wegen der Abweichungen.
NVidia setzt Massiv finanzielle Mittel ein um DX10.1 zu unterbinden, da Optimierungen für Ihr Produkt nicht mehr so leicht möglich wären.
18-25% mehr Performance sind kein kleiner Schritt, siehe AC.
Deshalb wurde es entfernt, ich hatte keine Fehler unter DX10.1 inAC.
Gruss ST
 
Zuletzt bearbeitet:
Das die Karte eine enorme 3D Leistung haben wird steht wohl außer frage, nur das du die auch jeden Monat auf deiner Stromrechnung sehen wirst genauso! :>

Ich für meinen Teil bin schon sehr auf die ersten Benchmarks gespannt und freue mich zu sehen, wie sich, die in einer vermeintlich anderen Liga befindliche, HD4870 gegen das nV Pixelmonster schlagen wird! :)
 
ich frag mich nur wie gut dann der kühler sein muss, und why sie noch immer nicht dx10.1 unterstützt.
 
Mal sehen wann das erste DX 10.1 Spiel auf den Markt kommt, wo dann im Vorspann ein "The Way It's Meant To Be Played" Trailer eingespielt wird. :evillol:
 
Interessant wäre 2x4870@CF (640€ (Preis siehe hier) gegen GTX280 (ich glaube eher 500-600€).
Wenn die Leistung +-5% ist, dann ist die NV doch besser, wenn die ATI@CF mind. 25% besser ist, kann man CF und den Aufpreis in kauf nehmen.
 
[ ] Du weißt, dass Grafikkarten eigentlich Multicore-Prozessoren sind (Mit zb 240 Prozessoren...)
 
@audigtrs2:
Auch wenn du erst 6 Beiträge hast, bitte erst informieren, dann Posten ;)
Spiele mal mit einer 3870x2 Crysis in hoher Auflösung, dann weißt du was Micro-Ruckler sind ;)
Es ist nun mal so, dass bei mehreren GPUs es zu kurzen verzögerungen kommt, und dass man trotz "60 FPS" zwischendurch zwischen ein paar Bildern nur noch 10 FPS hat. Und genau diese Schwankungen fallen schon auf.
Kannste auch mal suchen, es wurden hier auch schon darüber berichtet.
Einfach kurz informieren ;)

2 ATI Chips haben aber auch dann internes CF, mit bekannten Problemen und Micro-Rucklern, wie man bei der 3870x2 sehen kann.
Da kommt es nun drauf an, wieviel mehr Leistung es sein wird.
Wenn es mehr als 25% sind, kann man CF in kauf nehmen, aber bei unter 10% würde ich lieber auf eine Single-GPU karte setzen, denn wenn CF nicht unterstützt wird, kackt die ATI voll ab.
Abwarten auf die wie immer guten Tests von CB ;)

"Crysis sieht auch auf Mittel klasse aus"
Sagt jemand, der noch nicht auf Very High gezockt hat ;)
Nee.. aber die neuen Karten sollten doch schon Very High, AA und AF mit 1920x1080 mit 60FPS hinkriegen. Sonst sind sie 500+€ nicht wert.
PS: Die brauchen die 512 bit, weil sie auf langsameren (günstigeren) GDDR3-Speicher setzen. Durch die 512 Bit bleibt dann aber die Speicherbandbreite auch hoch.
ATI machts anders rum, die machen 256bit, aber viel schnelleren GDDR5 Speicher.
 
Zuletzt bearbeitet von einem Moderator: (triplepost)
110 US$ nur für den Chip?
Das wird sicherlich kein Schnäppchen werden diese Grafikkarte.
Da könnte man den Preis gesammt sicherlich auf etwa 500,- schätzen.
Ich bin mal gespannt ob der Mehrpreis auch gerechtfertigt sein wird....

Warum allerdings die so ein Monstrum in 65n statt wie AMD in 55n fertigen kann ich nicht ganz
verstehen. Bei 1 Milliarde Transistoren, dürfte das nicht gerade wenig Verlustleistung bedeuten.
Damit natürlich Stromhungrig und die Kühlung wird dann vielleicht gleich mit Wasserkühlung ausgeliefert?

Zumindest bleibt es im Sommer mal richtig spannend, weil seit der 8800 GTX bis auf die HD 3870 X2 nix
passables kam (von der Leistung her gesehen, nicht vom Preis).
Da aber bei COD4 die X2 schlechter ist als eine normale 3870 kam sie für mich nie in Frage, leider....
 
Wenn du JEDE "Generation" kaufst, dann biste selber schuld ;)
Wer die 88gtx gekauft hat, konnte gut die 99xx-"""Generation""" auslassen.
Wer noch eine 7xxx hatte, und sich eine 99xxx gekauft hat, hatte einen sehr guten Leistungs-Sprung ;)
Diese Karte wird wohl auch wieder 1 Jahr halten. Du musst ja nicht jede neue möchtegern-Generation kaufen, erst wenn du deutlich merkst, dass die Spiele nicht mehr laufen.
Und mit einer 88xx laufen doch alle Spiele, oder ?
Also, wo is das Problem, die 8er Karten gibts schon seit 1-1/2 Jahren ;)
Mit der Karte werden 1Jahr lang die neuesten Spiele auch super laufen.Mindestens. ;)
 
Ich glaube er meinte, dass es enttäuschend ist, dass selbst die übernächste ""Generation"" kein DX10.1 unterstützt, wo ich ihm recht geben muss.
Nvidia kriegts einfach nich auf die Reihe, machen dann Druck auf die Spiele-Entwickler, dass DX10.1 im Spiel nicht unterstützt wird, und der Kunde hatt dann die Leistungseinbusen.
Mit Graka 10.1 und Spiel mit 10.1-unterstützung gibt es schon einen guten Leistungs-Schub gegenüber DX10. Nur Nvidia kriegst nich auf die Reihe.

Da muss man dann sehen, wass einem mehr wert ist: die höchste Leistung (zu einem hohen Preis) oder weniger zu niedrigerem Preis und DX10.1 (welches ohne Spiel, dass es unterstützt, eh nichts bringt).
 
Hoffe ich insgeheim auch.... dass die DX10.1 unterstützung da ist ;)
Dann noch Spiele (Software) mit DX10.1, und dass zeugs rennt besser (und schneller) als mit DX10.
 
Hm, ich denke sie wird schon früher verfügbar sein. Ich denke schon im Juli.
Denn es wäre ja nich gut, wenn die NV-Karte gleichzeitig mit der ATI-Karte vorgestellt wird, Nvidia dann aber die Karten erst viel später liefen kann ;)
Ich hab zwar keine Quelle (du eine ?), aber ich denke so im laufe des Juli´s wird sie schon verfügbar sein.
 
... sollte Nvidia es wieder nicht schaffen, eine vernünftige Stromsparfunktion zu integrieren, um im Idle-Betrieb nicht unnötiges Geld zu verbraten und die Leistungsdaten der neuen 4870 in etwa den Gerüchten entsprechen, dürften die Würfel sehr wahrscheinlich zu Gunsten von AMD/ATI ausfallen.

Denn ich werde im Herbst meine "alte" 8800GTS 640MB@648/1512/2052, die mir bisher sehr viel Spaß gemacht hat, in den Computer meines Sohnes einbauen und brauche dann zwangsläufig eine Neue ...
 
100% ACK!

Das sehe ich genau so.
Diesen Chip Größen Wahn kann man sowieso nicht ewig treiben.
Irgend wann ist die Verlustleistung eben zu hoch und kommen nur noch Multi GPU Lösungen.
Warum aber nv immer noch kein 10.1 unterstützt versteh ich echt nicht.
 
Zurück
Oben