Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Bei Fudzilla weiß man neue Gerüchte über Nvidias vermeintlich nächsten High-End-Grafikchip mit Codenamen „GT200“ zu berichten. Dieser soll demnach weiterhin im 65-nm-Prozess gefertigt werden, da Nvidia in Erinnerung an den NV30 sehr vorsichtig sei, wenn es um das Thema Wechsel des Herstellungsprozesses geht.
Das ist doch eigentlich das worauf man wartet, wenn man schon seit nem Jahr mit ner GTS lebt, denn die aktuellen G92-Chips oder was dann als X2 ansteht ist nicht wirklich von Interesse, da die Mehrleistung nicht so hoch ausfällt, wenn man wie ich AA/AF bis zum Anschlag gerne nutzt!
Ich werde mal das Sparen anfangen, obwohl ich hoffe das die dann bei dem zu erwartenden Stromverbauch eine sehr gute Kühlung und einen noch besseren 2D-Modus hinbekommen, der wieder automatisch funktioniert und eventuell bei der Transistorenanzahl auch ne Menge davon abschaltet, wenn sie nicht genutzt werden - wäre so mein Wunsch dazu!
gerade mal 30 % mehr transistoren, vermutlich kein deutlich hörer takt (wegen gleicher herstellung) und vermutlich ne ähnliche architektur -> ähnliche pro-shader-takt leistung.
das heißt der wird vermutlich (meine einschätzung) gerade mal den 9800 X2 minimal übertrumpfen, und das wäre lächerlich
edit: @ der über mir, erinnerst du dich noch an den FX 5800 Ultra, das war eine kühllösung
Die solln sich was trauen und runter auf kA 45 nm gehn!
Mag zwar riskant sein, aber würde endlich mal einen beachtenswerten Leistungssprung mit weniger Wärmeentwicklung und weniger Stromverbrauch mitsichbringen!
Nach wie vor 65nm... na das wird ja im wahrsten Sinne des Wortes ein "heißes" Teil ;-)
Und siehe mal einer an - bisher war NV der Ansicht man bräuchte ja gar kein DX10.1 ... um nun doch ein Produkt anzukündigen welches dieses unterstützt.
Die Tatsache dass Vista SP1 im Q1 mit DX10.1 kommen wird, und der Mitbewerb mittlerweile von Top to Bottom DX10.1 Sachen anbieten kann war dann wohl doch zuviel des Guten.
Nicht schon wieder, die lernen es doch einfach nicht wie man liest "zu noch höheren Temperaturen",
bei den CPU'S geht es weiter abwärts dank 45 Fertigung und bei den GK weiter rauf.
Aber dann bitte keine 1 Slot Kühlung nvidia und keine Lüfter die brüllen.
gott das wird wohl nicht dene ihr ernst sein.
directx kommt ja wohl (wenn überhaupt) ende diesen jahres, also heisst das, das frühestens ende diesen jahres mit den wirklich neuen grakas zu rechnen ist.
also quasi 2 jahre ohne wirkliche neue, richtig schnelle grakas
naja.... vll kommt dann der g100 wirklich mit ddr5
Da bin ich mal gespannt, ob sich das bewahrheitet und wie nVidia dann mit den mehr Transistoren den Verbrauch und die Hitzeentwicklung umgeht. Auch wenn ich eh nie eine Geforce mein eigen nennen würde.
Und auf Fudzilla würd ich mich nicht so verlassen... Wie schon oben steht, es sind lediglich Gerüchte. Da gibts so in etwa eine 50/50 Chance, dass das stimmt. Ich würde sagen abwarten und Tee trinken, bis was von offizieller Stelle bestätigt / dementiert wird. So richtig kann ich mir das nämlich nicht vorstellen, man muss ja noch was in der Hand gegen ATI haben, und mit der neuen X2-Karte von ATI haben sie nVidia kräftig eingeheizt, da müssen die ja wieder iwas dagegen bieten können.
@11
also reicht es nicht, alle aktuellen spiele in auflösungen von 1680x1050 mit max details spielen zu können?
hier wissen einige echt nicht eas sie überhaupt wollen. kommt jedes halbe jahr ne neue karte bzw chip-gen raus -> Wäääääääh, muss das denn sein?
dauerts länger -> Wääääääh, muss das denn sein?
zum glück ist der durchscnittskunde nicht nur meckerfreudig, sondern auch naiv und leicht zu manipulieren
weiterhin 65nm, 30% mehr transistoren und n minniheizkraftwerk... na geil.. niedrigeren stromverbrauch kann man da wohl nicht erwarten.. wollen die den stromverbrauch nicht senken? ist es so schwer mal in diese richtung zu entwickeln?
@14
hat der g92 irgendwelchen großen leistungssschub gemacht? die gtx ist größtenteils noch schneller
ergo -> keine richtig schnelle graka seit über 1,x jahren!
edit: und lass mal die grakas auf dx10 laufen, da geht auch schon bei manchen games die puste aus
Na, da bist du aber der einzige Mensch auf diesem Planeten, der dieser Meinung ist.
Komisch, wenn ich so an die GeForce 5 Serie aka GeForce FX zurückdenke, da hatte nVidia scheinbar kein Problem seinen Kunden Kühlsysteme anzubieten, die so laut waren, dass sie selbst einem Fön Konkurrenz machen konnten.
Ok. Hab nicht daran gedacht (schon lange her). Aber die Kühler bei den G80 und G92 Karten sind schon ganz gut (von der Singleslot GT abgesehen), beim G70 ging es auch. Ich glaub mit der Wärme das wird nicht so das Problem.
Aber trotzdem frage ich mich warum nicht 45nm. Wollen sie jetzt ewig bei 65nm bleiben, weil es beim Wechsel eventuell Probleme gibt?
weiterhin 65nm, 30% mehr transistoren und n minniheizkraftwerk... na geil.. niedrigeren stromverbrauch kann man da wohl nicht erwarten.. wollen die den stromverbrauch nicht senken? ist es so schwer mal in diese richtung zu entwickeln?
Anscheinend ja, lies dir doch einige Beiträge hier durch. Manche erwarten offenbar jedes Jahr mind 80% mehr Leistung und wenns nicht passiert, handelt es sich um ein Desaster (Auszüge: "ATI und Nvidia= Schnarchsäcke; keine richtig schnelle graka seit über 1,x jahren; gerade mal den 9800 X2 minimal übertrumpfen, und das wäre lächerlich")
Die anderen erwarten wiederrum sinkenden oder zumindest stagnierenden Stromverbrauch und ich glaube nicht, dass Nvidia und ATI einen magischen Hut besitzen, aus dem sie ihre neuen Graka Generationen zaubern können...
Achja: Wenn mal eine Leistungserhöhung ganz schnell erfolgt, fühlen sich wiederrum manche beschissen, weil sie ja nicht mehr eine richtige High-End Grafikkarte besitzen...PC Spieler sind eine schwierige Zielgruppe