News Fotos und weitere Infos zum GT200 von Nvidia

es wird auf jedenfall spannend, auch wenn es nicht unbedingt ein muss ist, so finde ich es etwas schade das die karte kein dx 10.1 unterstützen soll. trotzdem wird es ein spannendes rennen zwischen nvidia und ati was leistung, features und vor allem preis angeht. ich freu mich auf den test :)
 
Die wird höher liegen, alleine schon die Shaderleistung wird brachial sein.
 
Da der NVIDIA Chip gut doppelt so groß ist wie der ATI Chip, passen auf einem Waver auch nur halb so viele Chips. Dies bedeutet doch das ATI seine Chips deutlich günstiger herstellen kann. Zudem benutzt ATI auch eine kleinere Fertigungsstruktur, wodurch die Chips noch einmal günstiger werden sollten.

Daher sollte eigentlich eine Grafikkarte mit 2 ATI Chips genauso teuer in der Herstellung sein wie 1 Nvidia Chip. 2 ATI Chips haben dann wieder mehr Leistung als 1 NVIDIA Chip. Zudem verdiehnt ATI doppelt, indem man 2 Chips verkauft, während NVIDIA nur 1 Chip verkauft. Mal sehen was die Zukunft bringen wird
 
Ich finde den Preis einfach nur krank. Die HD 4870 soll 30% schneller als ne GTX sein. Und dann kommt Nvidia wieder mit einem Highend Monster für 600€. Aber im großen ganzen denke ich dass sich ATI besser durchsetzen kann wegs Stromparen und einfach vom Gesamtpaket wie schon gesagt wurde. Nur das Problem bei Nvidia ist immer wieder der Stromverbrauch. Vielleicht kommen dann wieder so abgespeckte Varianten ala 8800 GT raus:)

Mfg Kivi
 
Warum vll ist es auch möglich die Chips so zu verbinden wie es schon bei den CPUs gemacht wird. Da ist es doch auch gut und keiner jammert mehr oder willst du etwa wieder einen singleCore CPU?
 
Also wenn ich in Spielen ununterbrochen kurze Stopper sehe dann kannst du mir nicht erzählen das man Microruckler nicht sieht. Habe es bei einem Bekannten gesehen der eine 3870x2 hat. Es kommt wohl nicht immer vor, aber wenn dann kann das schon recht störend sein weil es immer so ausschaut als ob kurz Daten nachgeladen werden.
 
Das Nvidia kein DX10.1 bringt, finde ich ziemlich schade. Man hat ja bei Assasin´s Creed gesehen welchen Geschwindigkeitsschub diese DX 10 Erweiterung bringt.
Somit boykottiert Nvidia den Technologieausbau , was ich nicht verstehen kann.
 
Das frag ich mich auch.
 
Was soll das heißen, man sieht die Microruckler nicht. Es gibt genug Viedeos und Beweise, dass Mikroruckler existieren und störend sind. Das haben nVidia und ATi bestätigt. Vllt. merkst du es nicht wenn du mit deiner 3x8800Ultra SiedlerII spielst, aber spiel dann mal Crysis auf Very-High mit 16xAF und 8xFSAA. Dann merkst du sie.
 
Wer den G92 kennt weiß, dass es ihnen leider gar nicht fern liegt, das zu ihren Gunsten zu tun.
 
Da gebe ich dir Recht joda, NV will mal wieder um jeden Preis die Leistungskrone. Die Entwicklung dieser Chips war sicherlich wiedereinmal sehr teuer, die Produktion ist auch teuer und zahlen darf der geneigte Enthusiast. Ich denke das die GTX260 garnicht exorbitant schneller sein wird als die ATI Karte. Immerhin handelt es sich hierbei um zwei völlig verschiedene Architekturen. ATI war wenn überhaupt nur minimal langsamer als NV und das trotz nicht vorhandener Shaderdomäne und weniger TMU's. Jetzt hat ATI die TMU's verdoppelt und die Shader ausgelagert. Ich glaube das es einen grösseren Leistungssprung geben wird als die GT200 Karten an den Tag legen werden. Aber sei's drum. Beide Generation dieser Hersteller sind schnell genug für alles was da ist und erst mal alles was kommt. Aber ich wette das es dieses Jahr ganz mau werden wird für DX10.1 Spiele. Dafür treibt NV zu viel Sponsoring und werden alles Versuchen damit ATI nirgends einen geschwindigkeitsvorteil hat wie zu DOOM3 Zeiten eben. Imerhin war es das einzige Spiel in denen die GF5 Karten schnell waren ;)
 
Das stimmt ja so mal gar nicht. Wie hier schon getestet wurde, ist das microruckeln sowohl vorhanden. Ich muss für so eine Grafikkarte total viel Geld aus dem Beutel fallen lassen. Dann kann ich auch eine Karte erwarten die einwandfrei und ohne Mängel läuft. Auch wenn es in Wirklichkeit gar nicht ruckelt aber wenn es so aussieht ist es Schrott. Beim zocken möchte jeder einen einwandfreien Spielgenuss haben.

Denke auch das ATI auf einem besseren Weg ist. Mal sehen was AMD/ATI daraus machen. Leistung ist nicht alles, wenn der Verbrauch sehr hoch ist. Wenn ich daran denke das eine 8800GTX unter Last über 140 Watt brauch und dann im Sli und der Prozessor noch um die 120 Watt und das Board und die Festplatte usw dann kommen wir locker an die 800 Watt für einen PC dann noch der Monitor. Also beim Auto regen wir uns auf und hier soll es egal sein. Ich möchte nicht am Jahresende 500 € Strom nachbezahlen nur weil ich viel gezockt habe. Grafik hin und her aber der Faktor Geld sollte nicht nur auf die Anschaffung gesehen werden. Denke auch wenn AMD alles neu im Griff hat wird es mit den Prozessoren und Grafikkarten bei denen auch wieder nach vorne gehen. Wir sollten nicht vergessen, AMD kann es und hat es schon öfters gezeigt. Der Weg ist gut und wird zum Ziel führen.
 
Also DX10.1 wirklich nicht?
Das wäre echt mager für NVIDIA, aber OK ich hatte eh nicht vor nen Stromfresser zu kaufen der womöglich noch mit ner Tripleslotkühlung daherkommt ;)
Sinnvoll wäre es sicherlich bei dem GT200 auf den 55nm Shrink zu warten denn das sollte beim Stromverbrauch noch mal einiges bringen.

Wenn bei diesem Monster der 512Bit Interface allerdings genauso schwächelt wie die HD2900 damals dann gute Nacht NVIDIA.
Schade ist nur das mal wieder 70% aller Käufer sicherlich erneut eine NVIDIA kaufen werden, warum?
Na NVIDIA bedeutet für viele noch automatisch: "besser"
Ich seh das seit der 9800Pro nicht mehr so und bis heute wurde ich selbst mit einer HD3870 nicht enttäuscht, wofür braucht man mehr Leistung?
Crysis sieht auch auf Mittel klasse aus ;D

Nee aber ich bin echt gespannt auf tests zwischen den beiden großen und ich habe so im Gefühl das NVIDIA mal wieder leicht vorn liegt aber im endeeffekt absolut unattraktiv sein wird.
 
Nvidia boykottiert gar nichts! In einem Intervie wurde von einem Spielehersteller gesagt das DX 10 noch nicht voll genutzt wird und man sich darauf konzentriert die Möglichkeiten von DX10 voll zu nutzen. Wenn das der Fall ist wird man sich neuen Versionen annehmen. Also warum sollte ich etwas herstellen was nicht genutzt wird. Das kostet dann auch wieder Geld. Ausserdem wird Nvidia noch was in der Hand behalten. Sobald die mit Chips nicht mehr so schnell weiterkommen werden die Karten mit DX10.1 auf dem Markt bringen und es neue Entwicklung nennen. Dann vielleicht eine Geforce 10 mit DX10.1 auf Basis einer Geforce 9 oder 8. Also alter Chip neues DX und wieder viel Geld dafür nehmen. Aber hauptsache der Name ist neu und die Leute die sich die Namen ausdenken wollen ja auch bezahlt werden :-)
 
Und was bringt es dir, wenn sie "nur" deaktiviert sind? Und vor allem: Warum hoffst du darauf?
Aktivieren wirst du sie nicht können, weil sie doch wegen eines Defektes deaktiviert werden - alles andere wäre ja pure Dummheit. Außerdem bringen deaktivierte Einheiten (oder bei CPUs ganze Kerne) immernoch kriechströme mit sich, die die Leistungsaufnahme höher ausfallen lassen. Insofern... keine Ahnung, was du uns damit sagen wolltest...
Aber natürlich wird es so sein, dass es vollwertige GT200 sein werden - hast du die Text gar nicht gelesen? 100 Dollar PRO CHIP! 1 MILLARDE TRANSISTOREN! nVidia wird nen scheiß tun und jeden DIE sofort wegschmeißen, nur weil da n Cluster nicht richtig arbeitet. Und dass nicht jeder DIE funktioniert, ist bei 1 Mrd. Trannis jawohl sogar selbstverständlich.

Also.. bitte mehr nachdenken..
 
Was ich aber am schlimmsten finde, ist, daß man eine Grafikkarte ca. 3 - 6 Monate hat und dann ist es schon eine "alte Gurke"!.
Die Hersteller sollten endlich mit dem "Weitpinkeln-Wettbewerb" aufhören, dafür aber jedes Jahr eine neue, leistungsfähige und
technisch wie innovativ ausgereifte Grafikkarte auf den Markt bringen. Meinetwegen in jedem Bereich( Low,- Mid und High End).

So wie es aussieht, bekriegen Sie sich und verwirren die Käufer nach Belieben. Ich denke, daß sie mit diesem Tempo in ein paar
Jahren kaum etwas innovatives entwickeln können, weil sie ihr kostbares "Pulver" jetzt schon so verschießen. Danach jammern sie
, dass die Grafikkartenpreise in den Keller gehen.
 
Solang es keine ausschlagskräftige Tests gibt, kann man nur spekulieren, welche nun das Rennen macht in punkto Preformence.
Wie gesagt AMD/ATI macht keinen wirklichen highend-Chip, dies war nach ATI auch nie geplant.
1. Im Highend-Bereich werden nur sehr wenige Karten verkauft, deshalb sind sie auch sehr teuer und nicht lukrativ für die Firma.
2. AMD/ATI setzt hier auf den Middleend bereicht, da hier am meisten Karten verkauft werden und die Kosten in sachen Leistund/Preis meistens stimmt, wie auch der Leistungsverbrauch pro Takt.

Nach meiner Meinung ist im Middleend bereicht AMD/ATI der deutliche Sieger.
Im Highendbereich hat Nvidia die Nase klar vor AMD/ATI.
aber meine klare Meineung ist auch das der GT200 kein wirklich neuer Highend-Chip ist. Da die Neuerungen nur sehr gering sind und diese noch immer auf das alte Chip design basieren.
 
Zuletzt bearbeitet:
Ist doch ne logische Vorgehensweise von Nvidia. Da sie DX10.1 (noch) nicht haben lassen sie die finger davon, somit geht dieser Vorteil und die damit verbundenen Entwicklungskosten für die Konkurrenz(AMD/ATI) verloren. Es gibt schließlich ne Menge "Its meant to ..." Spiele die garantiert maximal DX10 unterstützen werden.
Außerdem haben die Karten ja nun die PhysX Unterstützung, die von der Konkurrenz erstmal nachgebaut und lizensiert werden muß. Das werden wir sicher bald in jedem Nvidia gesponsortem Game bewundern dürfen :(
IMHO sind das Marktentscheidungen, das hat nichts mit dem Käufer oder dem technisch möglichen zu tun, leider.
 
Also ich weiß nicht. Ich habe meine 88GTX nun seit ca. Okt 2006. Die ist immer noch top.
Wenn Du natürlich jede Generation mitmachst ist das klar, aber diese Karte bleibt bis zur neuen 200 bei mir mindestens drin.
Ich denke wenn Du mündig bist kannst Du auch problemlos mal 1 Generation überspringen. Ich habe einen 27 Zoll TFT und TROTZDEM laufen Spiele super. Nein keine Quadcore.
Justr my 2 cents ;-))
 
Zurück
Oben