News Nvidia strebt Fertigung des G92 in 55 nm an

N-rG
Toller Link, die Ultra ist dort eindeutig 23% schneller als die 3870.:)

PS. Bei dem Test hat die Ultra auch uralt Treiber. :)
PPS. Hast wohl lange gesucht um einen Test zu finden, wo die 3870 nicht so schlecht dasteht. Liegt sicher auch am fehlenden AF, das ja nicht vergleichbar ist.

Wenn du nur Shader zaehle kannst, dann lass es, die sind nicht so einfach vergleichbar. Nimm die FLOPs.
 
@40) N-rG
Jedes DX10.1 Spiel, dass auf einer HD3870 läuft, wird zu DX10 abwärtskompatibel sein. Für Spiele, die nicht auf DX10.0 laufen, wird die HD3870 eh zu langsam sein. Zukunfsicher ist hier die Karte, die schneller ist, und nicht die, die shadermodel 4.1 kann.
 
Zuletzt bearbeitet:
Schöne, wenn auch für den Desktopbereich uninteressante Entwicklung. Aber mir als Notebook-Gamer gefällt besonders, dass die Chips zuerst in Notebooks verbaut werden. So kann man sich schonmal auf die neue Montevina-Plattform mit Penryn Quad @1066FSB im Zusammenspiel mit der 9800M GTX im SLi freuen. Die paar Shader mehr im Vergleich zur 8800M werden wohl nicht allzuviel reißen, aber wenn man bedenkt, dass das M1730 von Dell (2x8800M GTX, C2D X9000) schon die 15k-Marke ankratzt, ist das ganze als eine ganz besondere Neurung zu bezeichnen. Und mit der 55nm Fertigung werden nochmals höhere Chiptakte möglich sein.....die 20k im Notebook sind also in deutlich gereifbarere Nähe gerückt! ;P
 
@xp_home Wer redet von dem Modell? Es geht um Shadereinheiten, denk doch mal mit....

@Unyu

Soviel zum Thema Fachwissen. NV hat es in der Vergangenheit, nach GF1 und 2 nie mehr geschaft, die Treiber so zu optimieren, dass man 5% mehr Leistung hat. Anders bei ATI

Aber das wills du offensichtlich eh nicht verstehen, also lassen wirs einfach. Lieb dein NV und gut ist.
 
So wie NV letztens 65% rausgeholt hat?

Du gehts nicht mal richtig auf meine Posts ein.
 
ohh ja du Held ATi's AF flimmert wie der erste Fernseher, schon klar, ich wette wenn ich dir zwei Bilder von NV und ATi zu Vergleich gebe, merkst du keinen Unterschied, weil es da keinen Unterschied gibt. Es ist unglaublich wie die Fanboys hier abgehen, ist doch mehr als wahrscheinlich, dass die r7xx Serie schneller als g92 sein wird, es sind immerhin zwei Jahre ins Land vergangen und die G92 kam im Vergleich zur g80 nicht wirklich von der Stelle. Die neuen ATi's haben 50% mehr Shader, 50% mehr Takt, 80% mehr Bandbreite und 100% mehr TMUs (eigentlich die größte Schwäche des r6xx) also wenn diese Angaben stimmen ist es wohl mehr als logisch, dass die schneller sein werden, in extrem Situationen weit mehr als 40%

@Unyu:
Wenn man so eine Stuss erzählt, dann gib doch zumindest Quellen an!
Btw: Die Rechenleistung der g80/92 gemessen in Flops, kanns du nicht mit der des r6xx vergleichen, es sind theoretische Werte die nicht erreicht werden können, außerdem beachte dass da ein * bei der Angabe der Nvidia Karten steht.

"*Die von uns angegebenen GFLOP-Zahlen der G80-Grafikkarten entsprechen dem theoretisch maximalen Output, wenn alle ALUs auf die gesamte Kapazität der MADD- und MUL-Einheiten zurückgreifen können. Dies ist auf einem G80 allerdings praktisch nie der Fall. Während das MADD komplett für „General Shading“ genutzt werden kann, hat das zweite MUL meistens andere Aufgaben und kümmert sich um die Perspektivenkorrektur oder arbeitet als Attributinterpolator oder Special-Function-Unit (SFU). Mit dem ForceWare 158.19 (sowie dessen Windows-Vista-Ableger) kann das zweite MUL zwar auch für General Shading verwendet werden, anscheinend aber nicht vollständig, da weiterhin die „Sonderfunktionen“ ausgeführt werden müssen. Deswegen liegen die reellen GFLOP-Zahlen unter den theoretisch maximalen."
 
Zuletzt bearbeitet:
Stromsparen und wenig Abwärme ist ja sehr gut, nur kommt irgendwie noch immer nix für HD Gaming. Vor dem GT200 wird sich das wohl nicht mehr ändern :)

Verarschung die Dritte...
 
Eure Vergleiche einer Radeon 3870 mit einer 8800 Ultra sind ja ganz unterhaltsam.
Aber man sollte vielleicht nicht vergessen, dass eine Ultra noch so ca. 500€ kostet, während ich eine 3870 für knapp 150€ bekomme. Sicher handelt es sich hier um die G80 und die RV670, aber irgengendwie stimmen da die Relationen nicht.
 
Naja, wenn nVidia den Chip verkleinert und ordentlich an der Taktschraube dreht, warum soll das dann ein so schlechter Chip werden? Dazu schnellen Speicher um die Bandbreitenlimitierung zu senken und gut is. Die kleinere Fertigung und die geringeren Kosten eines Refreshes sollten doch zu einem sehr attraktiven Preis führen. Bevor nVidia aber Dinge wie DirectX10.1 einführt, sollten sie lieber einen Stromsparmodus (nicht nur die Hybrid-SLI Version) einführen.
Als ATI-Fanboy tendiere ich zwar eher zu AMD, aber deswegen muss man doch nicht gleich die nVidia-Lösung schlecht machen, oder?
 
Ein Stromsparmodus ist allerdings mehr als überfällig.
Enttäuschend finde ich aber, dass diese Hybrid-SLI Technik jetzt nur für die 9800 Serie funktioneren soll.
Als ob ihre kleineren Karten keinen Strom im Idle verbrauchen würden.
 
AlphaGoku
Richtig, auf Screenshots ist praktisch gar nichts zu erkennen, bis auf die Winkelabhaengigkeit. Flimmern sieht man erst bei Bewegung. :)
Schlimm das man gleich als NV Fan dargestellt wird, nur weil man darlegt wie schelcht die Situation ist.
PS. Ich habe uebrigens keine Lust mehr in jedem meiner Posts Links zu posten.

barmer
Ich kann nichts dafuer das sind nunmal die schnellsten Single GPU Karten beider IHVs.
Das eine 3870 preislich gegen eine 9600GT schwer zu kaempfen hat tut nichts zur Sache.
Hybrid SLI ist eh witzlos, da Vista und ein NV Brett notwendig sind. :)
 
IgG schrieb:
Und die armen Besitzer von 24" Monitoren dürfen weiter auf eine gescheite Grafikkarte warten. Mittlerweile regt mich das ziemlich auf, hab schon so ein Hals.

Gerade wegen dem ständigen Hinauszögern der Highend-Karte hoffe ich, dass Intel denen ordentlich Dampf macht (höflich ausgedrückt).

Die 3870X2 sollte da eigentlich genügen.
 
benel schrieb:
Wenn Nvidia jetzt noch einen G92-Shrink macht, dann kann es mit dem Nachfolger GT200 (oder sonst wie) nicht wirklich gut aussehen. Die machen doch keinen Shrink für ein 1/4-Jahr.
was hat das eine mit dem anderen zu tun?
der G92 ist im preisbereich von 150-250€
der GT200 wird bei release mehr als 500€ kosten

man kann nicht nur highend- und lowcost karten verkaufen, die karten dazwischen sind auch sehr wichtig
und da ist ein shrink eben bares geld

ob die den takt anheben ist schon leicht fraglich
wenn jetzt erst die 9800er kommen kann ich mir nicht vorstellen das schon wieder neue modellle kommen
höchsten noch ne ultra hinterher geschoben
 
@Blackmarket
Ja und die Multi-GPU Lösungen haben auch ihre eigenarten, die manch einer vermeiden möchte. Ebenfalls brechen auch diese in hohen Auflösungen ein. Bei aktuellen DX10 Titeln ist der Vorteil eh fast dahingeschmolzen. Schlussfolgerung muss eben ein Kompromiss sein, solange die Multi GPU Lösungen ihre Macken haben. Single-Chip Grafikkarten werden früher oder später rarer werden. Die werden einfach zu komplex, schwer zu entwickeln, herzustellen und auch bei der jeweiligen Fertigungsgröße an Grenzen stoßen. Reden wir nochmal in 3 Jahren drüber. Vielleicht ist dann ein SLI / Crossfire System im Highend, ohne Nachteile mehr, schon Standard - wer weiß wo der Weg hingeht und wie er aussieht. Vielleicht wechseln die Highend Fanatiker auch auf Konsolen, die ja im mom um einiges performanter "erscheinen"
 
Zuletzt bearbeitet:
@bensen Ich halte das auch sehr Fraglich wenn jetzt die 980GTX usw. rauskommen das dieses Jahr dann noch der GT200 Rauskommt. Das wäre ja totaler Quatsch. Mal schauen was die 9800GTX usw. am Performance bringen werden vllt. sind das ja die neuen High End karten solange keine Offiziellen Tests vorhanden sind kann man ja noch hoffen^^. War es nicht so das im Sommer 2008 Neue High End Modelle von NVIDIA rauskommen ??? Von der Zeit her, also bis zum Release der 9800GTX usw. würde es doch zeitlich hinkommen oder ??
 
N-rG schrieb:
@xp_home Wer redet von dem Modell? Es geht um Shadereinheiten, denk doch mal mit....
Na du hast in deinem Post das Shadermodell erwähnt. Unterschiedliche Shadereinheiten kannst du gar nicht einfach mal so vergleichen. Höchstens die Shaderleistung. Theoretische Werte sagen, dass die Shaderleistung des G92 höher ist, als die des RV670. Praktische Tests zeigen, dass der RV670 sich Leistungsmäßig eher mit dem G94 schlägt, als mit dem G92. Jetzt versuch mal deine Behauptung zu untermauern, dass der RV670 aufgrund der Shader Zukunftsicherer ist. Das einfach eine unhaltbare Behauptung. Denkst du mit? Kannst du mir folgen? Den Karten mit G92 fehlt es an Speicherbandbreite für noch mehr Leistung in hohen Auflösungen, aber auf keinen Fall an Shaderleistung.
 
Zuletzt bearbeitet:
Habe mal etwas in den News gestöbert.

Demnach ging man ursprünglich davon aus, dass in Q2 08 die neue Generation kommt. Später ging man davon aus, dass es sich hierbei um den GT200 handelt und nicht um den G100.

Das könnte doch folgendes bedeuten: Im Juni kommt eine neue Highend-Karte (evtl. G90, G91) als GT200 die wieder ordentlich Performance bringt. Später (Q4 08, X 09) kommt dann die nächste Generation (G100).

Bei dieser Theorie wäre auch Platz für einen G92 Refresh.
 
@bensen

Sicher ist ein Shrink bares Geld, aber dieser Shrink soll ja nicht eine Optimierung sein, sondern eher eine Verbesserung gegen die RV770 sein.
Und die Grafikkarten-Familien bestehen ja eigentlich nicht aus verschiedenen Architekturen.
Jetzt gibt es bald die GeForce 9800 GTX mit dem ursprünglichen G92, dann ein Shrink und dann auch noch die GT200? Das alles zwischen April und Dezember?
Das halte ich auch für eher unwahrscheinlich.
 
@IgG

Das einzige was erstmal kommt ist die "tolle" 98gtx und 98x2.
Highend kommt in q3,q4 mit dem gt200, da der aber preislich wohl im bereich oberhalb von 400€ liegen wird, muss man noch irgendwas gegen den rv770 haben,daher der g92 in 55nm
G100 kommt wenn irgendwann nächstes jahr, aber bis auf gerüchte, dass g100 mit dx11 kommt gibts da auch nicht soviel, soweit ich weiß
 
@barmer
ich sagte ja, ich halte es für unwahrscheinlich das neue G92 modelle kommen
wäre ja nicht das erste mal das ein hersteller einfach die gleiche karte mit nem anderen chip befeuert
dann bekommt die 9800gtx/gts einfach den G92 in 55nm ohne es an die große glocke zu hängen

@wiesel_x
da haste mich falsch verstanden
das ein neuer highend chip (meinetwegen soll er GT200 heißen) noch dieses jahr kommt halte ich so sicher wie das amen in der kirche
nur das weitere G92 karten nach der 9800gtx/gts kommen halte ich für unwahrscheinlich
 
Zurück
Oben