News GeForce GTX 295 schlägt HD 4870 X2?

ach du meine Güte ..... in der Not geboren .... aber vieleicht reichts ja, um wieder den Längsten zu haben .... da steigt einem die Ministerin Künast doch aufs Dach
 
lol 2 x gtx 280 verbaut xD Da zieht die karte ja dann so um die 800 watt :D! Mahlzeit! Und würd eaußerdem um die 700 Euro kosten... Dann nochma 250 fürn 1200 Watt netzteil!
 
Danke für die Werbung :)


Aus der News :

Der kleine Parcour zeigt neben allen technischen Daten auch die Performance in fünf Spielen auf

Muss man in Zukunft alle Tests meiden die genau 5 Spiele beinhalten ?

Nvidias Werbetaktik ist in letzter zeit ziemlich leicht durchschaubar. Das könnt ihr aber besser !


Die Frage ob die Karte schneller oder langsamer ist stellt sich mMn garnicht. Fraglich ist erstmal ob sie überhaupt stabil ist, wenn man an die Probleme der 280gtx denkt die hier im Forum berichtet wurden.
 
Habe ich das was in letzter Zeit nicht mitgekriegt?

Die GTX 295 soll also im Prinzip aus 2x 55nm GTX 260 mit 240 Shadereinheiten pro GPU bestehen?
Das wäre dann doch 2x GTX 280 oder liege ich da falsch?

Battlefield 2
 
@Battlefield2: Vielleicht solltest Du nicht nur auf den Artikel antworten, sondern ihn Dir auch durchlesen.

Ich zitiere mal die entscheidende Stelle:

Im Großen und Ganzen ist die GeForce GTX 295 eine GTX 260 in doppelter Ausführung, besitzt an einigen stellen jedoch Optimierungen, die auf Basis zweier GTX 280 beruhen. Dies betrifft in erster Linie die Anzahl der Stream-Prozessoren, aber auch die der TMUs. Mit 480, respektive 160, entsprechen sie genau dem doppelten einer GTX 280. Alle weiteren Bereiche entsprechen dem doppelten einer GTX 260

Das sollte Deine Frage eigentlich beantworten. Im Prinzip ist das Ding 2xGTX260, aber man hat die Anzahl der SPs und TMUs halt nicht künstlich geschränkt, wie man es auf einer GTX260 macht, sondern nutzt bei den SPs und TMUs alle Einheiten, die der Chip hergibt. Eine GTX260 basiert ja prinzipiell auf dem gleichen Chip, nur dass einige SPs und TMUs usw. abgeschaltet sind. Der GTX295 spendiert man natürlich nur selektierte Chips und lässt alle SPs und TMUs so wie sie sind. Vermutlich aufgrund von Abwärme und Leistungsaufnahme und Aufwand und Kosten wird alles andere aber auf GTX 260-Niveau belassen. Dadurch findet man evtl. einen guten Kompromiss zwischen Preis,Temperatur,Hitze auf der einen und Leistung auf der anderen Seite.

@q88: Der Chip was Takt anbelangt auch. Es ist ja eh der gleiche Chip. Also kann man nicht genau sagen 2xGTX260 oder 2xGTX280. Es ist halt etwas dazwischen. Die meisten Werte sind aber auch GTX260-Niveau. Aber da man vermutlich nur voll funktionsfähige Chips nutzt, lässt man die SPs und TMUs lieber angeschaltet.
 
Helge01 schrieb:
Seit dem neueren Treibern ... sehe ich keine Mikroruckler mehr
*lach*, sorry, aber das liest man seit Einführung der 3870 X2 mit jedem neuen Treiber

Ja ist schon komisch das sich jetzt kaum einer gegen die bösen Microruckler aufbegehrt so wie es als Verteufelung bei der X2 war die somit einen Status als Staatsfeind Nummer 1 bekam !
Hier meckern doch lauter Leute deswegen rum (mich eingeschlossen)? Und die Leute die sie verteidigen scheinen weniger Nvidia Fans zu sein als Besitzer von 4870 X2 Karten...
 
und was noch viel interesanter ist was wird sie kosten den die EVGA (Retail) GTX280 BlackPearl 1024MB 2xDVI/TV kostet ja um die 700,-
 
Zuletzt bearbeitet:
Battlefield2 schrieb:
Die GTX 295 soll also im Prinzip aus 2x 55nm GTX 260 mit 240 Shadereinheiten pro GPU bestehen?
Das wäre dann doch 2x GTX 280 oder liege ich da falsch?
Die Bezugnahme auf GTX260 oder GTX280 ist IMHO ohnehin wenig sinnvoll und für Nvidia (vorausgesetzt sie haben genug voll funktionsfähige Chips, wovon man ausgehen kann) ändert sich durch Deaktivierung einiger Hardwareeinheiten auch erstmal nichts am Preis, da stets der GT200(b) verbaut wird.

Bei der GTX295 werden nun alle Shader verwendet, denn um aufzutrumpfen braucht man vor allem brachiale Rechenpower. Aus Kühlungs- und Stromversorgungsgründen bleibt es aber bei Taktraten, die auch auf einer GTX260 Anwendung finden. Dazu spart man ein wenig am Speicherinterface (preiswerteres PCB, weniger VRam), Bandbreite hat das Dual-GPU-Monster sowieso genug.

2x GTX260? Nein!
2x GTX280? Nein!
2x GT200b in der GTX295-Konfiguration!

:)
 
Das Teil mag schnell sein, ultra schnell oder abartig schnell.

Nur wird sie, da wir ja von einem Nvidia-Produkt sprechen, auch genauso unverhältnismäßig teuer und daher uninteressant.
 
Die GeForce GTX 295 ist eine Dual-Karte, sie setzt also auf zwei GPUs. NVIDIA wird hier den auf 55nm geschrumpften GT200b verwenden. Es kommen zwei PCBs zum Einsatz, die jeweils eine GPU und einmal Speicher tragen). Die beiden Platinen sind mit einer Kabelverbindung ausgestattet, eine SLI-Brücke ist daher nicht nötig.

Insgeamt soll die Karte 1.792 MB besitzen, pro Kern stehen also 896 MB zur Verfügung. Das Speicherinterface ist 448 Bit breit (pro GPU). Über die Anzahl der ALUs wird noch spekuliert, momentan geht man von vollen 240 aus.

Erscheinen soll die GeForce GTX 295 im Januar. Genauer gesagt zur Computermesse CES. Diese findet vom 7. bis 11. Januar statt, so dass man in diesem Zeitraum auch den Launch der Grafikkarte erwartet.


auszug von tweakpc.de

hier der link

http://www.tweakpc.de/news/15220/geforce-gtx-295-bild-aufgetaucht/
 
Zu den Mikrorucklern sei mal gesagt, dass sie nicht auf allen Doppel-GPU Systemen zu finden sind ..
Ich hab schon 4 mal die HD4870X2 verbaut und getestet und mir ist in diversen Games nie etwas aufgefallen.

Dabei bin ich ein Kaffee-Junkie und achte sehr auf einen flüssigen Spielverlauf.

Vielleicht weil in allen verbauten Systemen mindestens eine übertaktete Quadcore schlummert? Kann ja auch sein dass die sogeschrieenen Mikroruckler auch als Hintergrundauslastung abgestempelt werden können. Das entfällt zumindest bei Quadcores ;)

Wenn es mal sinnvoll wird, sich ne Dual-GPU zu kaufen, werde ich das auch tun. Dabei ist es mir aber egal ob nVidia oder ATI, wer halt das bessere P/L bietet.

mfg,
Markus
 
Würde mich auch sehr verwundern, wenn die Karte die X2 nicht um längen schlägt. Immerhin is jede einzelne GPU ne Mischung aus GTX280 und GTX260. Und die GTX 280 ist bei weitem die schnellste Single GPU Karte.
Wenn der Stromverbrauch stimmt, scheint jedenfalls der neue Fertigungsprozess super zu funktionieren. Da bin ich ja mal auf die GTX 285 gespannt.
 
Das Ergebnis ist nicht wirklich überraschend, dürfte jedoch auch für zukünftige AMD Käufer sehr interessant werden, so muss sich die Grafikkarte preislich ebenfalls bei einer X2 einordnen, was AMD wieder dazu zwingen muss die Preise zu senken.
Da die meisten momentan im Handel erhältlichen Spielen wohl schon mit einer Single Geforce oder Radeon und einer optimalen Qualität fürs Auge laufen dürften, besteht jedoch nur für wenige User eine Kaufempfehlung.
Sollte die Veröffentlichungen der Refreshs beider Hersteller planmäßig erfolgen würde ich mich freuen wenn die Preise der HD4870 und der Geforce 260 unter die Marke von 200€ Fallen, was denke ich auch nur eine logische Konsequenz wäre.
 
Wie wäre es mit einer HD4870X4 im Sandwich-Design von nVidia, ... Wassergekühlt, ...

Dieser ganze "X2"- Hype ist meiner Meinung nach ganz nett zu beschauen, ... aber teilweise, ... wie jetzt von nVidia nur eine Verzweiflungstat um nicht ganz den Boden zu verlieren, ... wobei man ATI mit der HD4870X2 schon einiges an Respekt zollen muss, ... was ATI mit der HD4XXX - Serie gerissen hat, ... wow.

Temperaturen um 100°? Standardmäßig, ... quasi als Feature, ... ich glaube, nVidia wird bald ihre Grafikkarten mit Kaffeautomaten verkaufen, ... quasi als "Durchlauferhitzer", ... 100° heiße Luft aus einer Grafikkarte, ... pervers ^^.

Was soll nVidia diese Karte bringen, ... außer dass sie mal wieder die "beste" Grafikkarte haben, ... für den Preis einer GTX295 wird man wohl 2x HD4870X2 bekommen, ...

Es wird wohl eine Frage des Preises, ... nVidia müsste ihre Preise nur senken, ... dann würden sie mehr Gewinn machen, ... eine GTX260 (216) für 200€ wäre interessant, ... aber mit dem Kühler?


Hm, ... das wird wohl so schnell nichts, ... nVidia sollte den Partnern neue Designs erlauben, bzw. sollten diese davon mal gebrauch machen, ... bei ATI geht es ja wunderbar.
 
"nVidia müsste ihre Preise nur senken, ... dann würden sie mehr Gewinn machen"

Milchmädchenrechnung - würde imho nicht so einfach aufgehen...
 
Hm ja wieder das alte Design mit 2 Karten, aber ist auch geschmackssache.
Aber in der Grafik steht doich was von 480 cores sind das nicht 2 gtx280? Wenn sie wirklich so schnell ist nicht schlecht herr nvidia.
 
Zurück
Oben