News Nvidia strebt Fertigung des G92 in 55 nm an

DX 10.1 ist doch im moment genau so sinnlos wie DX 10, weil man z.b. Crysis nicht mal flüssig in DX10 Gamen kann. Ausser man hat irgendwie einen quad mit sli. DX sind nur gut, weil die unter DX9 so schnell sind. DX 10 ist erst nächstet Jahr "spielbar".
 
Bylar schrieb:
Die Roadmap stimmt nicht, RV770 ist noch nicht so nah, zudem gegen einen GT200 muss AMD schon echt was ins Feuer legen, um mithalten zu koennen, wuerde mich nicht wundern wenns wieder nur 2 zusammengeklebte Chips bei AMD gibt.

benel schrieb:
Ich weiss zwar nicht genau warum der G92 durch 55nm schneller werden soll, aber meinetwegen.
Dank 55nm kann NV erheblich den Takt erhoehen, genial das NV noch nichtmal die Taktgrenzen des 65nm G92 erreicht hat. Hier hat NV massig Luft nach oben.

http://www.nordichardware.com/news,7470.html
Kaum schneller als G80 lese ich daraus.
 
wieso reiten eigentlich die meisten auf dem DX10.1 rum?

es gibt weder spiele, die das benötigen noch sonstige Software, die das brauch. was MS sich damit gedacht hat, weiß eh keiner.

Und wer sagt uns, wofür das DX10.1 gut sein soll? scheinbar Keiner.

fazit:

wie einige bereits anmerkten ist das eher ein marketing gag. somit muss NV das nicht bringen und wenn, dann eben nur wegen der konkurenzfähigkeit aber ansonsten brauch das kein mensch, bisher.

zudem, das der graka-amrkt so schnell-lebig ist, ist doch nun schon seit einigen jahren bekannt oder, also jammert nicht rum, weil es mal hier oder da, entweder keine highend-grakas gibt derzeit (zumal jeder das für sich selbst entscheidet, was highend ist und was nicht) und zum anderen, kauft euch ne 8800GTX oder Ultra oder eben das gegenstück von ATI und werdet glücklich. das bei Nvidia die 9er reihe sich eher leistungsmäßig bei den 8800 GTX/Ultra einreiht, war doch klar und wurde auch von NV so mitgeteilt.

man man, immer dieses hin- und her für/gegen NV/ATI gerede.

aussuchen -> kaufen -> glücklich sein.
 
@Unyu

Hört sich krass nach Fanboy-Gesülze an. Woher willst du denn wissen, dass NV GANZ SICHER mithalten kann? Sonst rumjubeln, wenn NV 5% schneller ist und ATI in Grund und Boden schlecht machen und wenn NV dann 15% langsamer is, dann ist es ok, die "halten ja mit".
 
Wenn die so weiter machen höre ich mit dem PC Gaming noch auf und kauf mir zu meiner Wii noch eine X360 Elite (kostet sogar weniger als eine echte Highend für 500-600 EUR)...
 
Unglaublich, jetzt kommt also (vielleicht) nochmal ein Aufguss des mittlerweile eineinhalb Jahre alten G80. Im dritten Quartal, wenn die ersten 55nm-G92 für Desktop-PCs erscheinen werden, sind es dann schon ganze 2 Jahre. Leistungsmäßig viel getan hat sich seitdem nicht, selbst die uralte 8800 GTX kann immer noch oben mitmischen. ATi hat es ja noch nicht einmal geschafft, mit einer Single-GPU-Karte deren Leistung zu erreichen (nur die 3870 X2 ist schneller). Und ob der RV770 dann tatsächlich schneller als die G92-Karten ist, steht auch noch nicht fest...

Es wird echt Zeit für die ganz neue Generation, d.h. R800 und GT200. Ich kann mir kaum vorstellen, dass Nvidia den GT200 noch in 65nm fertigt, wenn man sich beim G92 schon überlegt ob dieser nicht auf 55nm geshrinkt werden soll. Der GT200 soll ja über eine Milliarde Transistoren haben, in 65nm wäre das mit Sicherheit ein Heizkraftwerk und Stromfresser zugleich.
 
Die Frage ist, wie hoch Nvidia den G92 auch unter 55nm takten kann. Weil nur der Shrink macht die GPU nicht schneller.

Wenn man mal ganz objektiv ist: der RV770 soll min. 40% schneller sein als der RV670, der ja nun auch schon sehr schnell ist. Eine Radeon HD 3870 mit der RV670 ist nicht ganz so schnell wie eine 8800 GTS, aber auf jeden Fall schneller als eine alte 8800 GTS, die übrigens den G80 nutzt.
Wenn jetzt auch noch Powerplay weiter verbessert wurde (10W im Idle), hört sich das für mich nach einer wirklich guten Grafikkartengeneration an.
 
@the_ hole
Da stimme ich dir voll zu alles refresh Müll ,keine signifikanten Leistungssteigerungen.
Genauso wie X2 und Gx2 oder 10.1 derzeit alles fürn Herrn.
Wenn man sieht wie schlecht Crysis auf D10 mit der X2 von Ati rennt ,da ist eine G92 GTS genauso schnell.
Eine Single Karte mit ordentlich druck muss her, meinet wegen auch Mehrkerntechnik auf einem Die .
Mfg
 
@FSX

Die 3870 kann schon mithalten. Mittlerweile sind die Treiber wesentlich besser. Wenn man nen wenig Ahnung von dem Business hat, weiß man, dass es eine Schwäche von ATI ist zum release vernüntige Treiber rauszubringen. Dafür wird die Karte mit neuen Treiber aber immer kontinuirlich schneller. Des Weiteren ist sie, dank der Shader, auch zukunftssicherer.

Und vergleicht nicht bei jeder Generation die Performance zwischen ATI und NV mit CRYSIS. Es ist nicht das einzigste Spiel, vor allem da NV dort mitprogrammiert und gesponsort hat.
 
Project-X schrieb:
Da im Mobilen bereich die Frage des Stromverbrauchs eine viel höhere Rolle spielt als bei Desktop PC's die via Netz laufen und nicht Akku.

Im PC bereich spielt es doch keine Rolle ob jetzt ein gesammter System 350 Watt oder 340 Watt zieht.
Im Mobilen Sektor kommt es doch auf jeden Watt an ;)

Ja das ist mir auch klar ;). Nur mich wundert es warum der RV770 zuerst im mobilen Bereich erscheint. Da ja sonst immer bei einer neuen Generation zuerst die high end Grafikkarte für den desktop Bereich, und danach die kleineren Versionen erschienen sind.
 
inge70 schrieb:
aussuchen -> kaufen -> glücklich sein.

In Zeiten wo die Monitore immer größer und günstiger werden und dadurch für viele auch große Auflösungen Alltag sind sind die Karten in aktuellen Spielen einfach nicht mehr schnell genug. Wer mit nem 24''er mit ner 1920-Auflösung Crysis oder Oblivion spielen will hat da einfach mal Pech, weil's seid fast 1,5Jahren keine wirklich nicht neuen Karten von NVidia gibt und ATi noch immer nicht so Konkurrenzfähig ist wie man es sich erhofft hätte. Da bringt auch die X2 oder n Ultra-SLI nicht die Performance, die einen glücklich sein lässt.

Daran sind wir auch wohl alle nicht gewöhnt, dass der Fortschritt im Grafikkarten-Sektor so langsam von statten geht.
 
ich verstehe nicht was die leute hier haben mit Direct X 10.1 als ob spiele schon draußen sind die das ünterstüzen und wenn es welche rauskommen sollten ist die Graka eh zu langsam egal ob ATI oder Nvidia das geile ist wie leute hier sich aufregen als wäre das must have die vergangenheit hat immer gezeigt das die erste Version einer Graka die ein Feature DirectX 10/10.1 unterstützt eh zu langsam ist um brauchbare performance zu bekommen erst mit der drauffolgenden Generation ist es gut spielbar
 
Was ich gerne wissen möchte ob Nvidia auch noch mal neue Karten für den AGP Port rausbringen wird,denn ATI verhält sich hier sehr viel Kundenfreundlicher.Sogar ne 3870 soll noch für den AGP Port kommen.Und wenn mann den Gerüchten Glauben schenken mag,dann soll sogar die 4000er Serie noch dafür produziert werden.Nvidia würde sich noch mehr Kunden verkraulen,wenn sie da nicht mitziehen würden.
 
Wenn die wenigstens dem G92 55nm ein Speicherinterface einer GTX geben würden. Der Weg über höherer Takt gleicht schmales Speicherinterface aus, ist einfach kacke. Klar Speicherinterface = teurer, aber Aufgusskarten die bei hohen Sachen einfach auch dadurch einbrechen sind nix. Da reicht auf ne 1 1/2 Jahre alte GTX. Was bringt mir x% mehr Leistung in DX9 bei 1280*1024? Da unten hat jede aktuelle Karte genug Leistung - nach oben geht alles wie ein Flaschenhals zu und die GTX steht wieder oben dabei :rolleyes:

genial das NV noch nichtmal die Taktgrenzen des 65nm G92 erreicht hat
Wirklich? Mit der Aussage wär ich vorsichtig - dann müssten ja die 38xx mit 55nm abgehn wie Schmitz Katz in Sachen Taktrate. Ich sehs nur leider nicht
 
@ 3
Sei doch froh dass du überhaupt 'nen Hals hast.
Mancher Fisch wäre froh darüber... ;-)

@ Topic
Ist doch erstmal völlig wurscht ob die Fertigung nun in 65 oder 55nm
erfolgt. Entscheidend ist, was hinterher für eine Leistung
zu welchem Preis rauskommt...

Allerdings finde ich das Phänomen der verkleinerten Strukturbreiten
schon ziemlich erstaunlich. Denn gerade bei den Grafikkarten bietet
das doch enormes Potential. Warum geschah da bisher nichts?
Irgendwie scheint man da was verschlafen zu haben.
Intel hat's als erster begriffen...
(und ist bald bei 32nm)
 
Zuletzt bearbeitet:
Ist ja Klasse dass Nvidia auf 55nm umsteigen will ich möchte nur hoffen, dass sie das so bald wie nur möglich auch in den nicht mobilen beriech verwendet
 
barmer schrieb:
der RV770 soll min. 40% schneller sein als der RV670
Gut, nehme ich das mal als Grundlage:
Eine 8800Ultra, uebrigens G80, ist doch einen ganzen Kanten schneller als RV670.
Diese 40% sind schnell aufgefressen, ohne das sich RV770 weit vom G80 absetzen kann oder uebehaupt kann, ich meine G80 in Ultra Form ist wirklich erheblich schneller als eine 3870.

AMD bietet in erster Linie D3D10.1, keiner weiss was es bringt, aber alle schreien danach, NV bietet dafuer weiterhin das flimmerfreie, winkelunabhaengige AF, hier sollte AMD mal Hand anlegen.


Drachton schrieb:
Wirklich? Mit der Aussage wär ich vorsichtig - dann müssten ja die 38xx mit 55nm abgehn wie Schmitz Katz in Sachen Taktrate. Ich sehs nur leider nicht
Gut ich bin Vorsichtig, aber hey wer sagt das RV670 nicht so abgeht dank 55nm? Braucht AMD nicht die 55nm um mitzuhalten, wie viel Takt wuerde ein 65nm RV670 abkoennen?

Ein groesseres SI braucht auch kein Mensch, GDDR5 wird den Bandbreitenhunger bereits stillen. Das dicke SI bei G80 war eher eine Notloesung, NV haette GDDR4 gebraucht.
 
@XP_home

was erzählst du für einen Mist:

ATI = 5Dx64 Shader(320) Modell 4.1
8800 GTX = 128 (1D) Modell 4.0

btw. hat seit release der Catalyst bei der X2 in Crysis 42 Prozent mehr Performance bringen können.

Soviel dazu. Aber vergöttert NV ruhig. Ich hab von jedem Hersteller bereits min. 3 Karten gehabt und tendiere zu ATI, da ich mit denen bessere Erfahrungen gemacht habe, auch was Support betrifft.
 
Zuletzt bearbeitet:
Zurück
Oben