Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NVIDIA interessierts nen feuchten Furz was die Hersteller mit Ihren Chipis machen, hierbei handelt es sich nur um Quark von Galaxy!
Und wenn zb XFX oder Asus nen 3m PCB mit 20zig G92 und 10 TNT2Ultra Chips auf den Markt bringen würde, wäre das NV sowas von egal die haben Chipis verkauft fertig ars**lecken.
Der Preis muss halt passen ...
ATI als "Gegner" sollte man auch überdenken, NV bietet teilweise bessere Abwärtskompatiblität und User die ältere Games,
vor allem Sim's, mit nice AA/AF (SLI Modes) zocken wollen, könnten da bspw. schon gut mit leben, zum richtigen Preis.
lol...
jetzt bringen sie eine runderneuerte 9800GX2, die zumindest ein Single-PCB hat und wahrscheinlich mehr takt - zudem hat sie schon wenigstens 2x1GB!
Die "alte" 9800GX2 hat auch schon den G92, aber nur 2x512MB GRAM.
Was ist an der Karte denn innovativ? Dass man diesmal eine Dual-GPU GTS 250 statt einer Dual-GPU sonstwas gemacht hat?
Dual-GPU-Karten gibt es nun seit fast 20 Jahren und sie waren und sind vom Preisleistungsverhältnis noch nie berauschend.
Auch in Sachen Einbaugröße und Geräuschentwicklung hat mich noch keine Dual-GPU-Karte vom Hocker gerissen.
Diese Karte dann auch noch so spät zu bringen macht sie noch weit weit weit überflüssiger als sie sowieso schon geworden wäre.
crux2003 schrieb:
Die "alte" 9800GX2 hat auch schon den G92, aber nur 2x512MB GRAM.
Ich will jetzt nichts falsches behaupten, aber die 9800 hat schon eine andere GPU als die 250 GTS.. die Dinger heißen bei nVidia zwar neuerdings alle G92, aber es kommt eben auf die Version an (a, b, irgendwelche Zahlenkombis oder sonstwas, was sich die "klugen" Leute gerade ausgedacht haben).
edit:
Naja diesmal bin ich reingefallen.. sind die gleichen Dinger, nur die 9800 GX2 hat den G92 noch in 65nm Sturkturgröße, die 250 GTS in 55nm.
Zuletzt bearbeitet von einem Moderator:
(Multiple Satzendzeichen (!!!, ???) entfernt. Bitte Regeln beachten!)
Die Idee ist ja mal gar nicht so schlecht, Problem ist nur...viel zu spät, die hätte vielleicht mitte 2008 als die 9800gx2 ein paar Monate alt war rausbringen sollen.
Und aufgrund der geringen Stückzahlen die sie abverkaufen werden und die hohen Enttwicklungskosten wird die Karte auch wahrscheinlich unverhältnismäßig teuer werden.
Deswegen nette Idee und irgendwie 1,5 Jahre zu spät...
Ich sage den entwicklern bei Sparkle ist einfach langweilig. Die stellen keine ATI Karten her und laut Geschäftsplan sollten sie seit ca 2 Monaten Fermi Karten entwickeln, die Nvidia aber nicht hinbekommt. Also vertreiben die Entwickler sich mangels Kurzarbeit die übrig gebliebene Zeit in dem sie interessante aber völlig überflüssige Kominationen von alten Nvidia Chips herstellen - das sie damit keinen Profit erwirtschaften können wissen sie wohl genausogut wie wir.
Offtopic (ein wenig): Lustig an der ganzen Fermisache ist doch, dass irgendwo in irgendwelchen Hinterstübchen schon ATI-Leutz sitzen und sich denken "Ah, Fermi dann also mit ECC Speicher, bla bla..." und fleissig an der 6*** Radeon Generation "schweißen".
Nebenher "schmeißt" man dann noch ne 5830 auf den Markt, probiert / testet mit irgendeiner Midrangegraka nen neuen Fertigungsprozess und freut sich. Im übrigen weiß man ja das ATI sicherlich mit NV "fühlt", schließlich erlebte man ein ähnliches Desaster mit dem "Monsterchip" Radeon 2900.
Und mal ab von der Diskussion NV / ATI: nach dem Verfahren Intel / AMD und der Rekordstrafe für Intel (die viel zu niedrig ist) finde ich es vollkommen in Ordnung das AMD wenigstens bzw. immerhin im Highendbereich der Grakas konkurrenzfähiges Material liefert (woran es bei den Prozzis im Highendbereich ja leider mangelt).
Ich freue mich auf niedrigere Preise (NV mache mal hin jetzt, die 5850 / 70er sind zuuuuuu teuer!!!) und bin gespannt was noch so kommt.
Ontopic: die Dualcorekarte hier braucht niemand! Marketing(-gag), mehr nicht in meinen Augen...
Was ist an der Karte denn innovativ? Dass man diesmal eine Dual-GPU GTS 250 statt einer Dual-GPU sonstwas gemacht hat?
Dual-GPU-Karten gibt es nun seit fast 20 Jahren und sie waren und sind vom Preisleistungsverhältnis noch nie berauschend.
Auch in Sachen Einbaugröße und Geräuschentwicklung hat mich noch keine Dual-GPU-Karte vom Hocker gerissen.
Ähm vor 20 Jahren (1990) gab es noch nichtmal Grafikkarten geschweige denn Dual GPU!
@Topic:
Ich glaube manche blicken aus dem total falschen Winkel auf diese Karte!
Die ist sicherlich nicht für den Gamer gedacht sondern dank CUDA für die Wirtschaft/Bildung. Der Markt für die Karte wird sicherlich groß genug sein das es sich lohnt oder denkt ihr Galaxy macht da einfach mal drauf los ohne sowas vorher genau abzuklären? Das ist doch keine Pommes Bude! Da werden Marktanalysen gemacht und das Potential ausgiebig erforscht bevor ein neues (vorallem so anderes) Designe auf den Markt kommt.
Ab 1990 entwickelten sich die Grafikkarten zu eigenständigen kleinen Computern mit eigener GPU (Graphics Processing Unit), einer sogenannten Graphics- oder Pixel Engine oder dt. Grafikprozessor
Hey, einen 9800GX2 Refresh in 55nm mit zeitgemäßen Speicherausbau.
Blöd nur, dass selbst eine HD4890 diese deutlich schlägt, von einer HD5850
brauchen wir hier gar nicht erst reden. Die GTS250X2 wird gegen die
HD5770 antreten müssen, deren Herstellungskosten einen Witz gegen
denen einer solchen Dual-GPU-Karte sind.
eine interessante karte. nur kommt die leider viel zu spät. mit erscheinen der hd5k sollte sie es wohl sehr schwer haben, noch eine lücke zu finden, die sie gut besetzen kann. aber wenigstens wurde hier der speicher mit 2 x 1gb angemessen dimensioniert und nicht son speicherkrüppel wie die alte gx2.
@Weltenspinner: die 9800gx2 war schon etwas schneller als die gtx280, diese dürfte nochmal etwas schneller ausfallen. obs für die 5850 reichen würde, wird man sehn (wobei die 5850 eigentlich immer die bessere wahl wäre, es sei denn der preis wäre extrem niedriger, was aber wohl auszuschließen ist).
als fazit kann man wohl davon ausgehen, dass diese karte im grunde nichts weiter ist, als eine marketingmaßnahme für galaxy, um ins gespräch zu kommen.
entwickelt werden musss hier übrigends wohl nicht sehr viel. das ist ein pcb einer 9800gx2 mit den gts250-gpus und bios.
Sie werden es sich sicherlich überlegt haben, ob irgendjemand diese Karte kauft.
Die Frage ist doch eher, wer das bitte sein soll! Cuda läuft bestimmt nicht so schlecht und auch die meisten Games sollten immer noch recht flüssig laufen. Blöd nur, dass es immer auch Karten gibt, die das besser können (GTX285, 5870, ...)