Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsBaldiger Start von Nvidias GeForce-600M-Serie?
Neben den offiziellen WHQL-Treiber veröffentlicht Nvidia in regelmäßigen Abständen immer wieder Beta-Varianten, die kein Qualitätssiegel von Microsoft tragen, dafür aber schneller auf Fehler oder neue Spiele reagieren. Und dann gibt es noch Beta-Treiber, die von verschiedenen Quellen ohne Nvidias Unterstützung geleakt werden.
Sehr unwarscheinlich. Die 28nm Produkte kommen erst 2012, mal wieder dank TSMC. Und ich glaube das da AMD wie auch bei 40 und 65nm die ersten sein werden die da einen Chip rausbringen.
Weil immer mehr Spiele mehr leistung brauchen als die GTX 580 schafft, beispiel The Witcher 2, Battlefield 3, Metro 2033, Crysis 2 und zukünftige aufwendige Spiele mit DirectX 11
Wenn es sich hier um einen inoffizellen Betatreiber handelt,
dann wird der nur für ersten Samples der kommenden 28nm Chips verwendet worden sein.
Fürs umlabeln braucht man keinen extra Treiber, da reicht es für die selbe Device ID einen anderen Namen zunutzen.
Na klar, um einen winzigen Chip unnötig teuer zumachen.
GK107 wird GF108 ersetzen, also GT540 und Co.
Diese kleinen Chips brauchen keine fette Bandbreite.
Diese Chips werden so neu und innovativ sein, wie die komplette 300er Serie!
Das kennen wir doch. Im aller aller besten Fall sind das die Testchips für 28nm und geshrinkte Fermis.
Im aller aller aller aaaaallllller besten Fall sind es aber tatsächlich GK100 Chips. Aber das glaube ich kaum. Woher sollen die auch kommen?
OT:
Das klingt im ersten Moment vielleicht erst einmal etwas dämlich, aber ich würde mir mal den G92 in 28nm geshrinkt wünschen. Denn obwohl der Chip im Vergleich mittlerweile recht langsam ist, war der G92 einer der effizientesten Chips der letzten Jahre. Gerade die 9800GTX+ aka GTS250. Danach waren G200 und Fermi erst recht recht relativ verschwenderische Riesenchips, die eher in Richtung GPU Computing optimiert sind.
Mit einem etwas höher getakteten G92 kann man jeden Konsolenport noch in mittleren bis hohen Details problemlos spielen. Ich mag mir gar nicht ausmalen, wie wenig Saft das Ding bei einem Wechsel von 55 auf 28nm brauchen würde. Das Teil käme unter Garantie ohne zusätzlichen Stromstecker aus.
Und die GTS250 war bei den Foldern@Home wahnsinnig beliebt, da billig und sehr effizient.
Aber ich weiß selbst, dass das nicht passieren wird
Weil immer mehr Spiele mehr leistung brauchen als die GTX 580 schafft, beispiel The Witcher 2, Battlefield 3, Metro 2033, Crysis 2 und zukünftige aufwendige Spiele mit DirectX 11
Zumindest am Beispiel BF3 stimmt das ja so nicht ganz! Denn mittlerweile hat Johan Andersson seinen Community Manager Daniel Matros korrigiert. Denn die empfohlenen Hardwarekomponenten sind für "HIGH" ausgelegt. Also müsste ja eine einzelne GTX580 locker für "ULTRA-HIGH" ausreichen.
Was muss Dein PC für Arbeiten erledigen welche eine GTX580 ausreizen? Nimmt mich echt wunder! Ausser 3D auf 30" oder GPU Computing kommt mir nichts in den Sinn?!
thommy86 schrieb:
Weil immer mehr Spiele mehr leistung brauchen als die GTX 580 schafft, beispiel The Witcher 2, Battlefield 3, Metro 2033, Crysis 2 und zukünftige aufwendige Spiele mit DirectX 11
Kann ich mir echt nicht vorstellen! Stellst Du im Treiber Deiner Geforce irgend ein 800 fach QSSGAXXMLLSSGA (Du weisst schon) Filtering ein! Wenn nicht dann! würde ich das Systemboard tauschen, da stimmt was nicht! Eine GTX580 sollte Witcher 2, Metro 2033, etc... auf Full HD hundertmal schaffen!
Kepler ist die erste Weiterentwicklung des Fermidesigns.
Keine komplette Neuentwicklung und wenn auch die 28nm Yield für große Chips noch zu gering ausfällt, so ist es nicht unwahrscheinlich das Nvidia ihre Strategie ändert und diesmal zunächst kleine Chips bringt.
Ob das aber wirklich noch dieses Jahr passiert, ist fraglich.
Zumindest am Beispiel BF3 stimmt das ja so nicht ganz! Denn mittlerweile hat Johan Andersson seinen Community Manager Daniel Matros korrigiert. Denn die empfohlenen Hardwarekomponenten sind für "HIGH" ausgelegt. Also müsste ja eine einzelne GTX580 locker für "ULTRA-HIGH" ausreichen.
Ob nun Fermi oder Kepler, es wird ein Videoprozessor ähnlich (vllt besser) des GF119 (GT 520) verbaut sein. Und ich kann Quadro-karten auf Basis dieses Chips für meine Videoworkstation kaum erwarten *.* kein anderer Chip schafft es bis jetzt FullHD in 60Fps oder höher zu Decodieren.
Ob nun Fermi oder Kepler, es wird ein Videoprozessor ähnlich (vllt besser) des GF119 (GT 520) verbaut sein. Und ich kann Quadro-karten auf Basis dieses Chips für meine Videoworkstation kaum erwarten *.* kein anderer Chip schafft es bis jetzt FullHD in 60Fps oder höher zu Decodieren.
Dann solltest du mal über den Tellerrand hinausschauen. Die Intel HD Graphics 3000 in meinem Notebook kann FullHD @ 60 fps flüssig decodieren:
Der Prozessor ist ein Core i3-2310M mit zwei Kernen, Hyperthreading und 2,1 GHz.
Ebenfalls verbaut ist eine Radeon HD 6630M, wenn ich diese fürs Videodecodig und Rendering nutze, gibts Framedrops bei der Wiedergabe des 1080p60-Videos:
Das ist interessant, war mir nicht bekannt. Aber für mich gegenwärtig noch unbrauchbar, da der Videoprozessor der Intelchips unter Linux derweil noch nicht wirklich nutzbar ist.