Unyu schrieb:
Die von der gleichteuren 9600GT geownet wurde? [ED 3850 war gemeint]
Gleich teuer? Schon mal Geizhals bedient? Im Moment kostet die 3850 (256MB) 34%!!! weniger als die 9600 (512MB)
Und jetzt komm mir nicht mit "die 3850 hat ja nur 256MB", die brauch halt nicht so viel wie die NV-Karten ^^
bazooExcalibur schrieb:
Mich intressiert nur die Leistung. Für 30 Zoll kann man nicht genug kriegen.
Habe jetzt meine 2 9800 GX2 bestellt und mal schauen was die so im SLI bringen.
Wie kann man JETZT!!! noch ne 98GX2 kaufen?!?! Und dann noch fürn 30"?
Zitat CB-Test GX2: "Falls es jedoch nicht mehr als vier-faches Anti-Aliasing sein muss und man in 2560x1600 dazu bereit ist, in einigen Spielen auf Kantenglättung zu verzichten, ist die GeForce 9800 GX2 die zumeist mit Abstand schnellste Grafikkarte, die man derzeit kaufen kann."
mat_2 schrieb:
Eine GTX 280 reicht gerade mal für 30", würd ich sagen, wenn man einigermaßen hohe Ansprüche hat.
Völlig unqualifizierter Beitrag. Musst schon dazuschreiben "wenn ich Crysis spielen will" Bei UT3 reicht bei 2560x1600 auch ne 3870, flüssige 50fps. Für die ganzen Strategietitel langt die genauso. Mit ner GTX280 kannste wahrscheinlich auch gut auf 5120x3200 zocken.
DiamondDog schrieb:
Die Single GPUs von ATi mache sinn weil sie günstig sind, aber alles andere nene.. was ist aus ATi nur geworden...
schade wirklich....
Dir is schon klar, das es auch single GPU Grakas von ATI gibt (4850/4870) die selbst für 30" TFTs ausreichen? Und DAZU noch BEZAHLBAR sind? man man man
nWarrior schrieb:
ATI konnte es mal besser im High End Bereich! Nämlich auch mit SingleChips![...]
Und was macht ATI jetzt? Bringt so einen DualGPU Schrott raus, wo man Mikrorukler zu spühren bekommt. [...]
Falls dus noch nicht mitbekommen hast, Multi-GPU ist die Zukunft, nicht weils besser ist, sondern einfacher und biliger:
Es wird ein Grafikchip entwickelt, der alles abdeckt.
1x als lowend
2x als mainstream
4x als Performance
8x als Highend
-spart unglaublich Entwicklungskosten
-spart ohne Ende Produktionskosten (viele kleine Chips sind mit wesentlich besserer yieldrate herzustellen als wenige große. Schließlich kann man den (runden) Wafer schon wesentlich besser ausnutzen.
-Problem: Übergeordnete Logik, die die kleinen Grafikschips sinnvoll zusammen arbeiten lassen kann. Kostet am Anfang, sollte aber leicht zu implementieren sein.
-Sobald das Problem mit dem doppelten Speicher gelöst ist, spart man da auch noch mal ordentlich
Zum Zweiten: Die 4870 ist eh schon als Single-GPU sauschnell, selbst wenn CF nicht skaliert, merkt man davon sowieso nicht viel. Und dann gibts immer noch exe-renaming und neue Treiber kann man ja auch mal installieren...
Rest siehe
cosmicparty schrieb:
zu große chips heißt zu viel strom, zu heiß,zu niedrige taktung, zu teuer in der herstellung, zu große ausfallsraten und zu gering der gewinn.
Unyu schrieb:
Nicht im Auge eines AMD Fans.
Das G92 bereits heute weitaus billiger ist, den Die Shrink noch vor sich hat (dabei noch billiger wird und höher getaktet werden kann), wird dabei gerne übersehen.
Klar. AMD räumt mit einem Chipmodell alles vom Markt.
..... so wie G94 vs billiger RV670 (ach ne der ist nur in der Produktion billig, der Kunde spürt nichts davon)....
Ich weiß ja nicht wo du lebst, aber der G92 ist mit 330mm² wesentlich größer als der RV670 und somit teurer. Und soweit mir bekannt ist, lassen NV UND AMD bei TSMC fertigen... Und die werden kaum dem einen oder anderen mehr berechnen.
Un der Kunde soll davon nichts spüren? Siehe oben...
Mal davon abgesehen, AMD verkauft keine Grafikkarten, das machen die AiB-Partner, also sprich Sapphire usw. AMD bringt die Chips und da wird mit Sicherheit ein guter Preis gemacht. Und ich hoffe du hast schon mal was von Angebot und Nacgfrage gehört? Wenn die Leute das Zeug kaufen, braucht man auch keine Preise senken. Macht INTEL schließlich genauso. Die verkloppen die CPUs auch nicht für umme.
Wie man so liest, soll einer der AiB-Partner von NV so ziemlich nahe am Bankrott steht und nur nicht pleite macht, weil NV (noch) kein Geld fordert...
Unyu schrieb:
Die Lösung für große Chips heißt Dieshrink. Kennen wir aus den letzten Jahren.
Geht aber auch nicht ewig weiter. Mit einem die-shrink alle 2 Jahre kannste auch keine Brötchen gewinnen
bazooExcalibur schrieb:
Also bei Grid ist schon die 9800 GX2 am Limit bzw mit der Auflösung und Einstellung.
Mit 8AA gipt sehr Oft Zeitlupen Training. Und wenn die FPS Zahl unter´s Limit fällt
siehts Böse aus.
Siehe oben... Dafür ist die 98GX2 eben nicht gemacht... Typische NV-Verarsche...
Ansonsten würd ich vielleicht mal mit 100x Kantenglättung spielen, da werden die Pixel nicht mehr nur geglättet, sondern sondern noch in Raum und Zeit gekrümmt, dann siehts erstmal geil aus...
Oh man, manche haben echte Probleme, probier mal die Regler zu benutzen, manche machen kaum nen grafischen Unterschied, aber dafür nen ordentlichen bei der Performance...
cosmicparty schrieb:
es wird im moment an 32 nm geforscht, aber das wird noch jahre dauern, das relativ naheliegendste ziel ist ati 40-45nm in nem halben jahr.
Na Jahre wirds nimmer dauern, INTEL hat garantiert schon lauffähige Prototypen in 32nm, wenn nicht, spätestens in nem halben Jahr. Bei Grakas kanns naturgemäß noch bissl dauern, aber ich hoffe auch mal auf 45nm zu Weihnachten.
Achja AMD wird wohl so schnell keine Grakachips in ner eigenen Fabrik fertigen. TSMC baut IMO grad ne neue Fabrik für 10Mrd (aber frag nicht welche Währung jetzt)