Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Nvidia testet 40-nm-GPUs überaus erfolgreich
- Ersteller Volker
- Erstellt am
- Zur News: Nvidia testet 40-nm-GPUs überaus erfolgreich
Thaquanwyn
Lt. Commander
- Registriert
- Aug. 2004
- Beiträge
- 1.519
krassdabei schrieb:...
War ja klar das die alte GTS640 nur der Einstieg in DX10 ist und noch mehr kommen muss um auch die Konsoleros restlos zu überzeugen(Grafikmässig)
Also:ATI oder NVIDIA,Intel oder was weiss ich.Gebt Gas!!!Und der Grafik-Markt rennt!!
... sorry - aber warum willst du eigentlich schon wechseln?
Nenn mir ein Spiel, mit Ausnahme von Crysis, und das läßt sich wenigstens auf High ganz gut spielen, dass irgendwelche Probleme mit der 8800GTS macht.
Mir ist keins bekannt - und so laufen meine Spiele (8800GTS 640MB@648/1512/2052) grundsätzlich mit HQ-Settings incl. 4AA und 16AF.
Ich jedenfalls werde warten, denn warum soll ich Geld ausgeben für eine Ware, die ich später preiswerter bekommen kann ...
Antimon
Commander
- Registriert
- Nov. 2007
- Beiträge
- 2.614
Unyu schrieb:Jeder bekommt das, was er bezahlt.
40nm Wafer werden mehr kosten als 45nm Wafer. So wie vor einem halben Jahr 55nm auch teurer als 65nm waren.
Grundsätzlich gesehen mag für ATI und Nvidia ein 40nm Wafer teurer im Einkauf sein, allerdings kommt es jetzt auch auf die Ausbeute an Chips an, welche man aus eben diesem Wafer erhält.
So lange die Probanden genügend Chips aus einem 40nm Wafer erhalten um den Mehrpreis kompensieren zu können und zusätzlich noch Gewinn machen, ist es eine lohnende Investition und 45nm Wafern auf alle Fälle vor zu ziehen. Positiver Nebeneffekt ist bei kleinerer Strukturen fallen natürlich auch mehr Chips pro Wafer ab.
Zuletzt bearbeitet:
F
franzi3
Gast
@Unyo
Wieso diskutierst du noch mit einem fanatischen Fanboy wie Cosmic, der einfach nur sehen will, dass sein geliebtes ATI Marktführer (mit hoffentlich folgender Monopolstellung) wird? Natürlich sabbelt er dann kurze Zeit später wieder von gesundem Konkurrenzkampf.
Und dann kommen so Sprüche, dass TSMC einer Firma (in diesem Fall ATI) den Vortritt lässt bei neuen Prozessen.
Schon klar, TSMC stellt Fertigungsprozesse nicht derjenigen Firma zur Verfügung, die dafür auch bezahlt und ihre Chip Matritzen fertig hat. TSMC sagt: Nein, ihr dürft unseren neuen Fertigungsprozess noch nicht nutzen, egal ob ihr zahlt und wir damit Geld verdienen, der ist anfangs nur für ATI da...
Was für ein dümmliches Geschwafel, aber eben Fanboy-Logik. Lustig ist dann vor allem, dass besagte Fanboys den anderen dann Naivität unterstellen.
Ach du schöne Fanboy-Welt. Ich möchte auch dort leben. Es muss dort so wunderbar sein. Nur leider wird dies immer ein Wunschtraum sein, da es mir herzlich egal ist, ob "Grün" oder "Rot" in meinem PC werkelt, wenn das P/L-Verhältnis stimmt, egal bei welchem Anbieter.
Wieso diskutierst du noch mit einem fanatischen Fanboy wie Cosmic, der einfach nur sehen will, dass sein geliebtes ATI Marktführer (mit hoffentlich folgender Monopolstellung) wird? Natürlich sabbelt er dann kurze Zeit später wieder von gesundem Konkurrenzkampf.
Und dann kommen so Sprüche, dass TSMC einer Firma (in diesem Fall ATI) den Vortritt lässt bei neuen Prozessen.
Schon klar, TSMC stellt Fertigungsprozesse nicht derjenigen Firma zur Verfügung, die dafür auch bezahlt und ihre Chip Matritzen fertig hat. TSMC sagt: Nein, ihr dürft unseren neuen Fertigungsprozess noch nicht nutzen, egal ob ihr zahlt und wir damit Geld verdienen, der ist anfangs nur für ATI da...
Was für ein dümmliches Geschwafel, aber eben Fanboy-Logik. Lustig ist dann vor allem, dass besagte Fanboys den anderen dann Naivität unterstellen.
Ach du schöne Fanboy-Welt. Ich möchte auch dort leben. Es muss dort so wunderbar sein. Nur leider wird dies immer ein Wunschtraum sein, da es mir herzlich egal ist, ob "Grün" oder "Rot" in meinem PC werkelt, wenn das P/L-Verhältnis stimmt, egal bei welchem Anbieter.
milamber!
Commander
- Registriert
- Dez. 2004
- Beiträge
- 2.260
Turbo007 schrieb:hurra!! eine GTX 280 mit 40Nm *FREU!!*
das gibt nochmal einen ordentlichen leistungsboost, wie bei der "9800GTX" und der "+"
vlt überholt sie die 4870X2
bei 40Nm können sie mehr chips auf nen wafer packen und so könnte sie nochmal billiger werden
ich weiß schon was es zu weihnachten gibt
Zuletzt bearbeitet:
was war denn mit dem 7er doppelding von nvidia? waren die nicht die ersten?
in der historie sollte man sich schon auskennen, wenn man so pauschal argumentiert.
Höhö, die erste Dualkarte für den Consumerbereich war die ATI Rage Fury Maxx Ende der 90er. Man sollte sich schon auskennen ;-)
Dann war alledings lange Pause, bis die 79x0GX2 kam Herbst 2006.
bigbee
Ensign
- Registriert
- Juni 2008
- Beiträge
- 141
Die Gewinner sind am Ende sowieso immer die Firmen. Die kassieren ab, egal ob hier sich Fanboys Mikrorucklerschlachten liefern oder nicht, die meisten lesen hier ja eh nicht mit, jedenfall über"scrolle" ich die meisten Diskussionen eh. Ziemlich schwer hier mal die sinnvollen Beiträge "OnTopic" herauszufinden.
Übrigens: 40nm "testen" heißt nicht "herstellen", da man ja weiß, dass Chipproduktionen in Zyklen ablaufen und somit die Herstellung in 40nm wie sie für das Frühjahr 2009 angekündigt war sicherlich nicht vorgezogen wird, wozu auch? Immerhin kann man mit einer 55nm-GTX280 doch zu Weihnachten genug abkassieren
Und nochmal an alle unwissenden: Mikroruckler sind ein SOFTWARE-Problem, also durch einen Patch pro Spiel oder einen unsauberen Treibertweak lösbar. Müssen die Hersteller nur mitspielen. Regt sich ja auch niemand auf, dass sein toller Quadcore nur einen Kern auslastet wenn man ein altes Spiel startet.
Übrigens: 40nm "testen" heißt nicht "herstellen", da man ja weiß, dass Chipproduktionen in Zyklen ablaufen und somit die Herstellung in 40nm wie sie für das Frühjahr 2009 angekündigt war sicherlich nicht vorgezogen wird, wozu auch? Immerhin kann man mit einer 55nm-GTX280 doch zu Weihnachten genug abkassieren
Und nochmal an alle unwissenden: Mikroruckler sind ein SOFTWARE-Problem, also durch einen Patch pro Spiel oder einen unsauberen Treibertweak lösbar. Müssen die Hersteller nur mitspielen. Regt sich ja auch niemand auf, dass sein toller Quadcore nur einen Kern auslastet wenn man ein altes Spiel startet.
Unyu
Banned
- Registriert
- Okt. 2004
- Beiträge
- 6.891
Oh jetzt das wieder. Du verschweigst, das ein ganz erheblicher Teil der G200 Transitoren für DP ALUs draufgegangen sind, die bringen dir in Games null.rEpLaYmEr schrieb:Im Moment ist ATi technisch ja wohl ganz klar vorne. ATi holt aus 1mrd Transen 1200 GFLOP/s während Nvidia auf dem gt200 aus 1,4mrd Transen ganze 933 GFLOPs Rechenleistung holt!(mir ist klar, dass GFLOP/s nicht alles ist, da sind ja noch die Spiele, die alle im It's meant to be played, Nvidia-Pro Programmiert sind)
Also gut lassen wir GPGPU weg und vergleichen:
Millionen Transitoren: 1400 - X vs 1000
SP GFLOP/s: 933 vs 1200
Pixelfüllrate (MPix/s): 19264 vs 12000
Texelfüllrate (MTex/s): 48160 vs 30000
Leider wohl kaum etwas vergleichbar, weder von GFLOP/s oder deren Auslastung noch der Texelfüllrate, aber vielleicht erkennst du, das GFLOP/s alleine nicht alles sind, da brauchst auch keine TWIMTBP Verschwörung.
Schreib doch einfach, wo AMD wirklich vorne ist: Bei der Packdichte und genau hier wird dir dann auch klar, warum man nicht einfach 200 Millionen Transitoren ranklatschen kann:
Hohe Abwärme auf engsten Raum mit noch höherer Abwärme auf größerem Raum ersetzen? Viel Spass beim Referenzkühlerdesign.
Was soll das?rEpLaYmEr schrieb:Mit der 4870x2 hat man natürlich eine perfekte High-End Karte(jaja, ich weiß Unyu, für dein geschultes Auge sind Mickroruckler noch bei 200FPS zu erkennen, auch genannt: Mogel-FPS, da ATi sonst ja keine Chance hätt )
Wenn du mich kennen würdest, wüsstest du das ich keine 200 FPS brauche, das ich mit 100 FPS genauso zufrieden wäre, das ich gerne am Spielbarkeitslimit bin und das ich die 9800 GX2 zur Genüge, sogar vorm Release kritisiert habe.
Wo habe ich das behauptet?rEpLaYmEr schrieb:edit: was mir grad noch einfällt: du hast behauptet, dass Nvidia mit der 8er Serie im Shrink schneller war!!!
Meinst du Post 34? Les nochmal genauer.
Dann klär mich auf.MacPok schrieb:Diese Aussage ist so gesehen bzw. geschrieben durchweg falsch.
Das ist doch selbsverständlich.Antimon schrieb:Grundsätzlich gesehen mag für ATI und Nvidia ein 40nm Wafer teurer im Einkauf sein, allerdings kommt es jetzt auch auf die Ausbeute an Chips an, welche man aus eben diesem Wafer erhält.
Neuerer Prozess:
+ Mehr Chips
+ bessere Chips
- mehr Defekte Transistoren
- höherer Preis
franzi3 schrieb:Schon klar, TSMC stellt Fertigungsprozesse nicht derjenigen Firma zur Verfügung, die dafür auch bezahlt und ihre Chip Matritzen fertig hat. TSMC sagt: Nein, ihr dürft unseren neuen Fertigungsprozess noch nicht nutzen, egal ob ihr zahlt und wir damit Geld verdienen, der ist anfangs nur für ATI da...
Sentionline
Lt. Commander
- Registriert
- Mai 2006
- Beiträge
- 1.184
He?Unyu schrieb:40nm Wafer werden mehr kosten als 45nm Wafer. So wie vor einem halben Jahr 55nm auch teurer als 65nm waren.
Kleinere strukturen erhöhen die Ausbeute, da mehr Chips aus einem Wafer entstehen. Da relativiert sich das mit den steigenden Kosten.
News des 29. März 2007Die 55nm Fertigung kann dabei in ähnlicher Relation zur 65nm Fertigung wie bislang die 80nm zur 90nm Fertigung gesehen werden: Als verfeinerter Prozeß ohne wirklich großartige Kosten für die Umstellung. Damit dürfte dieser Fertigungsprozeß ... einfach noch etwas günstiger als bisher gefertigt werden ...
bei 40nm ist das nichts anderes. Weniger Stromverbrauch, weniger Hitze (leichter zu kühlen), gleiche Leistung auf kleinerem Raum...
Zuletzt bearbeitet:
cosmicparty
Banned
- Registriert
- Aug. 2007
- Beiträge
- 843
@ sentionline:
was unyu meint und damit hat er recht, dass tsmc für die herstellung eines 40nm wafers mehr geld haben will, als für die herstellung eines 45nm wafers.
ist eben eine neuerer produktionsprozess.
was unyu meint und damit hat er recht, dass tsmc für die herstellung eines 40nm wafers mehr geld haben will, als für die herstellung eines 45nm wafers.
ist eben eine neuerer produktionsprozess.
Ich denke das dürfte auch darauf ankommen wie begehrt die 40nm-Fertigung ist. Wenn z.B. die ganze Welt 65nm fertigen will, aber keine Socke die 40nm-Werk(e) nutzt, dann ist die 65nm-Fertigung ggfs. sogar teurer als die 40nm-Fertigung. Im Prinzip dürfte es zwar anders herum sein. Aber wer weiß. Hauptsache wir warten nicht ewig auf das Ergebnis. Ende 2009/Anfang 2010?
Turbo007
Lt. Commander
- Registriert
- Apr. 2008
- Beiträge
- 1.874
Zitat von silent-efficiency
@FredKune
ATI ist auch jetz nicht vorne! GTX 280 ist immer noch schneller als HD4870. Zudem vergessen wohl einige, dass während AMD am Preis/Leistungsoptimieren des HD4870 war, nvidia CUDA verbessert hat und PhysX eingeführt hat. Langfristig gesehen wird das mehr bringen als einen Chip auf Preis/Leistung zu optimieren. Mit dem nächsten Chip, wenn nVidia ihr Preis/Leistung-Performance-Optimierung durchführen, wird ATI wieder so da stehen wie mit der HD 3870 gegen die 8800 GTX.
warum meinst du habe ich mir vor 5 monaten die 88 GTX geholt??