Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsNvidia kündigt offiziell die GeForce GTX 295 an
Öhm, ... seh ich das richtig, das die ganze heiße Luft, die die Karte erzeugt, alleine durch den schmalen Schlitz zwischen und unter den Anschlüssen geschoben werden muss?, ... Ich kann mir nicht vorstellen, dass das wirklich leise oder kühl bleiben kann.
@dorndi
Möglich ist das schon. Muss sich nur jemand trauen die Rückseite der beiden PCBs auch noch mit jeweils 14 Speicherchips vollzupflastern.
Dürfte nen ziemlich teurer Spass werden.
EDIT:
Wobei der Speicher ja niedrig getaktet ist, da gibts ja auch GDDR3 mit 1GBit. Dann reichen ja 14 Chips für 1,75GB
Es ist definitiv schwammig formuliert, deute das ganze aber ein bisschen anders. PCGH hat ja mit dem neuen Beta Treiber getestet und meine Vermutung ist das NV die µRuckler am Sack gepackt hat und kurz davor ist sie ganz abzustellen. Vielleicht schon mit dem finalen Treiber. Oder hald im nächsten oder übernächsten finalen Treiber. Wie immer heißt es abwarten...
wohlgemerkt mein ich hiermit nicht treiber optimierung auf bestimmte spiele die dann nur gebencht werden dürfen sondern eben schon spieleseitige optimierungen für hardware so das mitbewerber direkt nachteile erleiden
"Positiv hervorheben möchten wir noch, dass es bei keiner Testsequenz in unserem Parcours zu so genannten Mikrorucklern kam - bei der HD 4870 X2 traten unter Crysis welche auf."
Es ist definitiv schwammig formuliert, deute das ganze aber ein bisschen anders. PCGH hat ja mit dem neuen Betra Treiber getestet und meine Vermutung ist das NV die µRuckler am Sack gepackt hat und kurz davor ist sie ganz abzustellen.
Verallgemeinere da nicht, die Enttäuschung könnte groß sein.
Nochmal: Mikroruckler sind extrem eng mit AFR verknüpft, aber auch Profil-abhängig. Verzichtet man auf AFR und verwendete eine ander MGPU-Technik, verzichtet man auch auf 80-90%-Skalierungen. Profile wiederum sind mehr oder weniger individuell. Was bei dem einen Spiel super läuft, funzt bei dem anderen wiederum nicht oder schlechter -> das Problem besteht grundsätzlich immer noch.
@dorndi
Möglich ist das schon. Muss sich nur jemand trauen die Rückseite der beiden PCBs auch noch mit jeweils 14 Speicherchips vollzupflastern.
Dürfte nen ziemlich teurer Spass werden.
Öhm, ... seh ich das richtig, das die ganze heiße Luft, die die Karte erzeugt, alleine durch den schmalen Schlitz zwischen und unter den Anschlüssen geschoben werden muss?, ... Ich kann mir nicht vorstellen, dass das wirklich leise oder kühl bleiben kann.
Nein. Schau dir die bilder genauer an (evtl. auch die von den geposteten links) da sieht man deutlich das die karte auf der einen seite zur hälfte offen ist. D.h. ein grosser teil der wärme bleibt im gehäuse und wird nicht so schön nach aussen geblasen wie bei der GTX 260/280
Umgerechnet wären das ja "nur" 350-375€. Ich glaube aber nicht, dass die Karte hierzulande für weniger als 400€ an den Mann geht. Selbstverständlich würde ich es aber begrüßen.
Über den Stromverbrauch lässt sich wohl streiten. Wer da ohne mit der Wimper zu zucken einfach zulangt, wird eh vom E.ON-Vorstand wöchentlich zum Essen eingeladen.
Mir reicht meine kleine GTX260, hab ja auch nur einen kleinen Monitor (22" -.-).
was is den das für eine aussage? ich will das nicht mit der intel geschichte vergleichen vorallem weil man nicht genau weiß wie das nvidia sponsoring aussieht aber die aussage
"wer kein geld zum bestechen hat hat pech gehabt" ist wohl absoluter nonsens
btw. sind die benchmarks bei pcgh absolut unglaubwürdig... wenn man die ergebnisse aus dem
Echte Benchmarks können wir Ihnen jedoch noch nicht anbieten, weil Hersteller Nvidia nur denjenigen Testern eine Karte überlassen wollte, die strenge Bedingungen akzeptieren: fest vorgeschriebene Spiele-Benchmarks und ein Verbot aller darüberhinaus gehender Tests. Am 8. Januar 2009 fällt die Sperrfrist von Nvidia, so dass wir dann unseren unabhängigen Test online stellen können.
Mit dem Auslaufen der Sperrfrist dürfen nun ausgewählte Webseiten auch erste Benchmarks der GTX-295 veröffentlichen. Dafür empfiehlt Nvidia jedoch die fünf Spiele Fallout 3, Far Cry 2, Left 4 Dead, Dead Space und Call of Duty - World at War. Einen sechsten Titel dürfen sich die Preview-Tester selbst aussuchen.
Hmm, sieht nach einer Marketingaktion aus, was momentan läuft.
Ich würde auf RICHTIGE Benchmarks zur Beurteilung warten, auch wenn das erst im Januar was wird...
Denke wenn eine GRaka eine Chance hat dann die GTX285 wenn sie wirklich spürbar mehr leistet. Aber wie soll das mit den Kosten ausschauen?? 340€ eine aktuelle GTX 280, in einem Monat 320€ von mir aus, die GTX 285 dann 400€ (grob geschätzt), dann müsste die 295 auf jedenfall minimal um die 480€ liegen.... und da 2 Grakas zusammenkleben noch nie der Renner war... naja
**
pcgh ist und war schon immer NVidia eingestellt. Dort preisen se die aktuelle GF Reihe immernoch als ungeschlagen an aber bei Hardwarezusammenstellungen von MusterPCs (P/L) sind ATIs verbaut in jeder Preisklasse.
µRucker werden erst Geschichte sein wenn die GPU wirklich GPU übergreifend zusammen arbeiten und nicht wie jetzt jede GPU mehr oder weniger ihr eigenes Süppchen kocht. Erste Schritt dahingehend ist die gemeinsame Speicherverwaltung. Ich denke dadurch lassen sich schon einige Probleme lösen. Für den Hersteller sicher nicht uninteressant, schließlich spart man Speicher (wobei GDDR 3 sicher recht günstig sein dürfte).
Aber so einfach scheint es wohl nicht zu sein, Multi GPU gibt es lange, aber eine Lösung für Speicher/Ruckler-Problem ist nicht wirklich da.
Edit:
Tja beim Raytracing hätte man all diese Probleme nicht, aber dazu fehlt nunmal noch die Hard und Softwarebasis.
btw. was man in der ganzen diskusion glaub ich total vergisst ist ein kompliment an cb eben nicht bei dieser marketing aktion mit zu mischen...
im endeffekt sieht das für mich sowieso einfach nach reiner kalkulation aus... es geht im endeffekt eh nur um "klicks" und somit um geld... ich würde sogar behaupten das viele der redaktionen solche diskusionen ganz sicher vorausgesehen haben aber dennoch diese "previews" releasen weil die diskusionen etc. eben geld generien...
unter anderem erkennt man solche dinge ganz gut an dem derzeitigen poll von pcgh... oder den flash diagrammen von guru3d die den user zwingen javascript/flash zu aktivieren um die daten lesen zu können womit gleichzeitig aber auch die werbe banner wieder mit durchgezogen werden und klicks generieren...
daher an cb... ich hab hier ganz bewusst keinen werbeblocker aktiv wie auf anderen seiten...
Da die GTX 295 eh schon ein Zwitter aus GTX 260 und 280 ist (240 Shader Units) hätte man auch gleich 512 Bit SI und somit 1 GB VRAM verbauen und halt weiterhin auf die GTX 260 Taktraten setzen können.
Aber dann wär die Karte sicher locker 50€ teurer geworden.
Also die Performance ist schon sehr nett und übertakten kann man die GTX 295 nach den ersten Vortests locker auf XFX GTX 260 (216) Black Edtion Niveau (auch noch höher, aber dies führte zumindest bei FC 2 zu Instabilität). Ich denke mal aufgrund der hohen Rohleistung und den damit verbundenen hohen fps sollten diesmal KAUM Mikroruckler auftreten, höchstens vll bei Crysis und 2560x1600 und hohem AA.
Wenn ich im Januar eine neue High End Karte bräuchte, würde ich hier wohl zuschlagen - wobei so eine Dual - Lösung mit dem GT216 oder 212 in 40nm noch attraktiver auf Grund der hohen möglichen Taktraten wäre.
Fallen die Preise der Geforce 260 und 280 GTX erst am genauen Release oder schon Vorher weil jetzt so kurz vor Weihnachten werden schon viele Produkte günstiger
je mehr sich das durchsetzt und leute jetzt wirklich denken die karte wäre im schnitt schneller, obwohl sie noch garnicht objektiv getestet wurde, umso mehr wird nvidia dieses mittel auch einsetzen.
Wenn dann echte tests erlaubt sind klärt sich das doch eh nicht mehr. Was sich einmal in den Köpfen festgesetzt hat bleibt idr auch dort.
Die auflagen- und klickgeilen Redaktionen lassen es sich natürlich auch nicht nehmen. Lieber berichten sie schwachsinn, als das ihnen etwas entgeht.
In gewisser Weise werden sie ja regelrecht erpresst : "macht Werbung für uns oder ihr bekommt keine Hardware mehr zum Testen"
Schade das man aufgrund von mangelhaften Produkten wohl zu solchen Methoden greifen muss.
So dreist war Intel nicht mal zu Presskopf Zeiten.
Aber ich sags ja immer wieder : die Leute WOLLEN verarscht werden.
Glaube nicht dass der Preis der GTX260 stark fällt. Die GTX260 wird ja auch nicht ersetzt (wie die GTX280 durch die GTX285). Bei der GTX280 könnte ich es mir gut vorstellen, die müssen ka das Lager leer kriegen .
Interessant das Fudzilla auch über die Lautstärke und den Stromverbrauch schreibt. Außerdem erscheint mir der Leistungsvorsprung realistischer als auf PCGH.
Da muss ich Edgecrusher86 recht geben man hat doch schon recht viel von der GTX280 übernomen warum dann nicht gleich eine GTX280 X2 anstatt eines zwitters. Dann hätte man ja runde 1GB nehmen können. Aber abgesehen davon könnte man doch auch einfach einen speicher von 1,792GB benutzen können denn es kann doch nicht so schwer sein einfach einen Speicher zu verdoppeln.
Das Argument mit dem höheren Stromverbrauch spielt wohl eher eine untergeordnetere Rolle. Denn jemand der 500€ (nur mal so geschätzt ) für eine Grafikkarte aus giebt hat doch auch Geld für ein 350 watt strom verbrauch (nur Grafikkarte). soviel werden wir früher oder später eh verbrauchen da nützt auch 55nm, 40nm oder gar 32nm nichts. Davon abgesehen werden wir immr höhere auflösungen haben und dann muss der Monitor auch größer werden und das kostet dann auch wieder mehr Strom.
@pantherfibel
seit wann hast du die cpu so übertaktet und läuft die mit luft kühlung?
habe nämlich die gleiche^^