News Nvidia testet 40-nm-GPUs überaus erfolgreich

@Sentionline: na jetzt kann ich ja beruhigt schlafen^^
hach ja: immer dieses herrliche Fanboygelabere^^
 
krassdabei schrieb:
...
War ja klar das die alte GTS640 nur der Einstieg in DX10 ist und noch mehr kommen muss um auch die Konsoleros restlos zu überzeugen(Grafikmässig)
Also:ATI oder NVIDIA,Intel oder was weiss ich.Gebt Gas!!!Und der Grafik-Markt rennt!!

... sorry - aber warum willst du eigentlich schon wechseln?

Nenn mir ein Spiel, mit Ausnahme von Crysis, und das läßt sich wenigstens auf High ganz gut spielen, dass irgendwelche Probleme mit der 8800GTS macht.

Mir ist keins bekannt - und so laufen meine Spiele (8800GTS 640MB@648/1512/2052) grundsätzlich mit HQ-Settings incl. 4AA und 16AF.

Ich jedenfalls werde warten, denn warum soll ich Geld ausgeben für eine Ware, die ich später preiswerter bekommen kann ... ;)
 
Unyu schrieb:
Jeder bekommt das, was er bezahlt.
40nm Wafer werden mehr kosten als 45nm Wafer. So wie vor einem halben Jahr 55nm auch teurer als 65nm waren.

Grundsätzlich gesehen mag für ATI und Nvidia ein 40nm Wafer teurer im Einkauf sein, allerdings kommt es jetzt auch auf die Ausbeute an Chips an, welche man aus eben diesem Wafer erhält.

So lange die Probanden genügend Chips aus einem 40nm Wafer erhalten um den Mehrpreis kompensieren zu können und zusätzlich noch Gewinn machen, ist es eine lohnende Investition und 45nm Wafern auf alle Fälle vor zu ziehen. Positiver Nebeneffekt ist bei kleinerer Strukturen fallen natürlich auch mehr Chips pro Wafer ab.
 
Zuletzt bearbeitet:
@Unyo

Wieso diskutierst du noch mit einem fanatischen Fanboy wie Cosmic, der einfach nur sehen will, dass sein geliebtes ATI Marktführer (mit hoffentlich folgender Monopolstellung) wird? Natürlich sabbelt er dann kurze Zeit später wieder von gesundem Konkurrenzkampf.

Und dann kommen so Sprüche, dass TSMC einer Firma (in diesem Fall ATI) den Vortritt lässt bei neuen Prozessen.
Schon klar, TSMC stellt Fertigungsprozesse nicht derjenigen Firma zur Verfügung, die dafür auch bezahlt und ihre Chip Matritzen fertig hat. TSMC sagt: Nein, ihr dürft unseren neuen Fertigungsprozess noch nicht nutzen, egal ob ihr zahlt und wir damit Geld verdienen, der ist anfangs nur für ATI da...
Was für ein dümmliches Geschwafel, aber eben Fanboy-Logik. Lustig ist dann vor allem, dass besagte Fanboys den anderen dann Naivität unterstellen.

Ach du schöne Fanboy-Welt. Ich möchte auch dort leben. Es muss dort so wunderbar sein. Nur leider wird dies immer ein Wunschtraum sein, da es mir herzlich egal ist, ob "Grün" oder "Rot" in meinem PC werkelt, wenn das P/L-Verhältnis stimmt, egal bei welchem Anbieter.
 
Turbo007 schrieb:
hurra!! eine GTX 280 mit 40Nm *FREU!!*
das gibt nochmal einen ordentlichen leistungsboost, wie bei der "9800GTX" und der "+"
vlt überholt sie die 4870X2

bei 40Nm können sie mehr chips auf nen wafer packen und so könnte sie nochmal billiger werden:evillol:

ich weiß schon was es zu weihnachten gibt:evillol:


:baby_alt:
 
Zuletzt bearbeitet:
was war denn mit dem 7er doppelding von nvidia? waren die nicht die ersten?

in der historie sollte man sich schon auskennen, wenn man so pauschal argumentiert.

Höhö, die erste Dualkarte für den Consumerbereich war die ATI Rage Fury Maxx Ende der 90er. Man sollte sich schon auskennen ;-)

Dann war alledings lange Pause, bis die 79x0GX2 kam Herbst 2006.
 
Die Gewinner sind am Ende sowieso immer die Firmen. Die kassieren ab, egal ob hier sich Fanboys Mikrorucklerschlachten liefern oder nicht, die meisten lesen hier ja eh nicht mit, jedenfall über"scrolle" ich die meisten Diskussionen eh. Ziemlich schwer hier mal die sinnvollen Beiträge "OnTopic" herauszufinden.

Übrigens: 40nm "testen" heißt nicht "herstellen", da man ja weiß, dass Chipproduktionen in Zyklen ablaufen und somit die Herstellung in 40nm wie sie für das Frühjahr 2009 angekündigt war sicherlich nicht vorgezogen wird, wozu auch? Immerhin kann man mit einer 55nm-GTX280 doch zu Weihnachten genug abkassieren ;)

Und nochmal an alle unwissenden: Mikroruckler sind ein SOFTWARE-Problem, also durch einen Patch pro Spiel oder einen unsauberen Treibertweak lösbar. Müssen die Hersteller nur mitspielen. Regt sich ja auch niemand auf, dass sein toller Quadcore nur einen Kern auslastet wenn man ein altes Spiel startet.
 
@RIPchen auch falsch du hast die Voodoo 5 5500 und die die Voodoo 5 6000 vergessen soviel zum Thema auskennen ;)
 
@xxxx es ging aber um NV und AMD ;)
 
Das hat er aber nicht dazu geschrieben er hat geschrieben dann kam lange Zeit nix was so ja nicht stimmt ;) Naja ist ja auch egal ich finde diese sinnlose Diskussion hier eh überflüssig zumal wir schon X andere von der Art haben.
 
rEpLaYmEr schrieb:
Im Moment ist ATi technisch ja wohl ganz klar vorne. ATi holt aus 1mrd Transen 1200 GFLOP/s während Nvidia auf dem gt200 aus 1,4mrd Transen ganze 933 GFLOPs Rechenleistung holt!(mir ist klar, dass GFLOP/s nicht alles ist, da sind ja noch die Spiele, die alle im It's meant to be played, Nvidia-Pro Programmiert sind)
Oh jetzt das wieder. Du verschweigst, das ein ganz erheblicher Teil der G200 Transitoren für DP ALUs draufgegangen sind, die bringen dir in Games null.
Also gut lassen wir GPGPU weg und vergleichen:
Millionen Transitoren: 1400 - X vs 1000
SP GFLOP/s: 933 vs 1200
Pixelfüllrate (MPix/s): 19264 vs 12000
Texelfüllrate (MTex/s): 48160 vs 30000

Leider wohl kaum etwas vergleichbar, weder von GFLOP/s oder deren Auslastung noch der Texelfüllrate, aber vielleicht erkennst du, das GFLOP/s alleine nicht alles sind, da brauchst auch keine TWIMTBP Verschwörung.

Schreib doch einfach, wo AMD wirklich vorne ist: Bei der Packdichte und genau hier wird dir dann auch klar, warum man nicht einfach 200 Millionen Transitoren ranklatschen kann:
Hohe Abwärme auf engsten Raum mit noch höherer Abwärme auf größerem Raum ersetzen? Viel Spass beim Referenzkühlerdesign.

rEpLaYmEr schrieb:
Mit der 4870x2 hat man natürlich eine perfekte High-End Karte(jaja, ich weiß Unyu, für dein geschultes Auge sind Mickroruckler noch bei 200FPS zu erkennen, auch genannt: Mogel-FPS, da ATi sonst ja keine Chance hätt :D)
Was soll das?
Wenn du mich kennen würdest, wüsstest du das ich keine 200 FPS brauche, das ich mit 100 FPS genauso zufrieden wäre, das ich gerne am Spielbarkeitslimit bin und das ich die 9800 GX2 zur Genüge, sogar vorm Release kritisiert habe.

rEpLaYmEr schrieb:
edit: was mir grad noch einfällt: du hast behauptet, dass Nvidia mit der 8er Serie im Shrink schneller war!!!
Wo habe ich das behauptet?
Meinst du Post 34? Les nochmal genauer.

MacPok schrieb:
Diese Aussage ist so gesehen bzw. geschrieben durchweg falsch.
Dann klär mich auf.

Antimon schrieb:
Grundsätzlich gesehen mag für ATI und Nvidia ein 40nm Wafer teurer im Einkauf sein, allerdings kommt es jetzt auch auf die Ausbeute an Chips an, welche man aus eben diesem Wafer erhält.
Das ist doch selbsverständlich. :)
Neuerer Prozess:
+ Mehr Chips
+ bessere Chips
- mehr Defekte Transistoren
- höherer Preis

franzi3 schrieb:
Schon klar, TSMC stellt Fertigungsprozesse nicht derjenigen Firma zur Verfügung, die dafür auch bezahlt und ihre Chip Matritzen fertig hat. TSMC sagt: Nein, ihr dürft unseren neuen Fertigungsprozess noch nicht nutzen, egal ob ihr zahlt und wir damit Geld verdienen, der ist anfangs nur für ATI da...
:D
 
Unyu schrieb:
40nm Wafer werden mehr kosten als 45nm Wafer. So wie vor einem halben Jahr 55nm auch teurer als 65nm waren.
He?

Kleinere strukturen erhöhen die Ausbeute, da mehr Chips aus einem Wafer entstehen. Da relativiert sich das mit den steigenden Kosten.

Die 55nm Fertigung kann dabei in ähnlicher Relation zur 65nm Fertigung wie bislang die 80nm zur 90nm Fertigung gesehen werden: Als verfeinerter Prozeß ohne wirklich großartige Kosten für die Umstellung. Damit dürfte dieser Fertigungsprozeß ... einfach noch etwas günstiger als bisher gefertigt werden ...
News des 29. März 2007

bei 40nm ist das nichts anderes. Weniger Stromverbrauch, weniger Hitze (leichter zu kühlen), gleiche Leistung auf kleinerem Raum...
 
Zuletzt bearbeitet:
@ sentionline:

was unyu meint und damit hat er recht, dass tsmc für die herstellung eines 40nm wafers mehr geld haben will, als für die herstellung eines 45nm wafers.

ist eben eine neuerer produktionsprozess.
 
Ich denke das dürfte auch darauf ankommen wie begehrt die 40nm-Fertigung ist. Wenn z.B. die ganze Welt 65nm fertigen will, aber keine Socke die 40nm-Werk(e) nutzt, dann ist die 65nm-Fertigung ggfs. sogar teurer als die 40nm-Fertigung. Im Prinzip dürfte es zwar anders herum sein. Aber wer weiß. Hauptsache wir warten nicht ewig auf das Ergebnis. Ende 2009/Anfang 2010?
 
Hm, da TSMC schon im Q1 09 in der Lage sein wird, halbwegs massentauglich 40nm Chips zu produzieren, denke ich, werden die ersten (HighEnd) Grafikkarten schon im zweiten Quartal in den Handel kommen ;)
 
Zitat von silent-efficiency

@FredKune
ATI ist auch jetz nicht vorne! GTX 280 ist immer noch schneller als HD4870. Zudem vergessen wohl einige, dass während AMD am Preis/Leistungsoptimieren des HD4870 war, nvidia CUDA verbessert hat und PhysX eingeführt hat. Langfristig gesehen wird das mehr bringen als einen Chip auf Preis/Leistung zu optimieren. Mit dem nächsten Chip, wenn nVidia ihr Preis/Leistung-Performance-Optimierung durchführen, wird ATI wieder so da stehen wie mit der HD 3870 gegen die 8800 GTX.

warum meinst du habe ich mir vor 5 monaten die 88 GTX geholt:D:D??
 
Zurück
Oben