Bericht Bericht: Nvidia GF100: Technische Details

weshalb larrabee schon architekturbedingt in der ersten generation wohl nicht konkurrenzfähig sein dürfte, ungeachtet der rohleistung.
Und das ist genau das Problem das Nvidia vermeiden möchte und mit dem es ebenso zu kämpfen hat. Hier spielt der Zeitfaktor eine entscheidende Rolle.

Bei 20% Mehrleistung auf die derzeitige HD5870 muss mann berücksichtigen was ATI wohl noch nach legen kann - das ist den Herstellern meist ungefähr bekannt. Die HD5xx Reihe hat aber noch die Reserven nach oben.
Nicht vergessen die HD5870 hat nur 2x 6-Pin Strom während die GF100 schon am Anschlag ist mit der Stromversorgung.
Da ist eine Single-GPU mit 6+8-Pin in der Schublade so sicher wie das Amen in der Kirche - und die könnte die 20% schnell wieder egalisieren.
 
ich schätze auch, dass ati die 5890 schon griffbereit hat und diese so oder so unmittelbar nach dem release des fermi veröffentlichen wird. allein schon um nvidia nicht die schlagzeilen zu überlassen ;)
tippe da auch auf 2gb vram standartmäßig. ansonsten einfach ordentlich erhöhte taktraten und fertig ist das neue flaggschiff.^^
 
denke auch dass amd was bereit hat, frage ist nur wann das rauskommen sollte.

Richard Huddy von amd gibt ja fast eine inoffizielle bestätigung dafür in diesem artikel (auf seite 5):
http://www.bit-tech.net/bits/interviews/2010/01/06/interview-amd-on-game-development-and-dx11/1

bit-tech: IF - given we don't know yet - when Nvidia's Fermi cards finally arrive they are faster than your HD 5970-

RH: -Well if it's not faster and it's 50 per cent bigger, then they've done something wrong-

bit-tech: -well if it is then, do you have something else up your sleeve to compete?

RH: Let me say that I suspect that through 2010 it's possible there will be moments where we don't have the fastest graphics card, but I expect that for the majority of 2010 we'll have the fastest card you can buy. I've good reason for believing that but I can't talk about unannounced products or any of the stuff we're doing to secure that.

übrigens recht lesenswertes interview da der herr zuerst bei nvidia gearbeitet hat und jetzt bei ati/amd ist.
 
Zuletzt bearbeitet:
also die aussage ist ja mal interessant: "wir werden möglicherweise nicht das ganze jahr durch die schnellste grafikkarte haben, aber ich erwarte dass wir die überwiegende zeit von 2010 die schnellste karte haben werden, die man kaufen kann."

das bedeutet, er erwartet, dass die 5970 als schnellste karte von nvidia abgelöst werden kann (das wird wohl um märz herum passieren), ati aber dennoch die meiste zeit die schnellste karte hat, was bedeuten würde, dass sie was wesentlich performanteres als eine 5970 in petto haben müssten, was spätestens august bei den händlern in den regalen stehen können müsste. oder seh ich das falsch? Oô

alternativ würde er ja erwarten, dass nvidia nicht vor august mit einer lösung auf den markt kommen wird, die die 5970 gefährden könnte...
 
Oder er erwartet die GF100 im April (er hatte ja zu kaufen gesagt ;) ) und die HD6 kommt schon im September :D

Oder er weiss, dass die GF100 ein weiteres Stepping benötigt um schneller als die 5970 zu werden und dies nicht vor August zu realisieren ist und Nvidia mit einer etwas langsamer getakteten Karte raus kommen muss um überhaupt mal was in die Regal zu bekommen.
 
Vielleicht bezieht er sich ja auch nur auf die 5870? Zwar würde das der Aussage ("schnellste Graka die man kaufen kann") widersprechen, aber die Worte von solchen Mitarebeitern genau zu nehmen war noch nie ne gute Idee.

Abgesehen davon halte ich es für sehr unwahrscheinlich, dass der GF100 wirklich ne 5970 schlägt. Mit 512 Shadern und 64 TMUs dürfte sich das schwer gestalten, obwohl man das nicht vergleichen kann.

EDIT: Und das die HD 6000 Serie im September kommt, bezweifle ich auch mal ganz stark. Vorraussichtlich wird die ja auf ner neuen Architektur basieren, genauso wie nVidia jetzt mit dem Fermi einen komplett neuen Chip bringt. Und dass ne neue Architektur schon mal 4-5 Jahre dauert wissen wir alle (natürlich haben sie schon vor ein paar Jahren angefangen, trotzdem rechne ich erst Mitte/Ende 2011 mit der HD6)
 
Zuletzt bearbeitet:
es geht ja das gerücht um, dass eine dual-fermi-karte erwartet wird. zweimal 384 oder sogar 448 shader bei verringertem takt könnten möglicherweise unter der 300 watt marke bleiben und dennoch eine gtx380 deutlich schlagen. sie müsste ja nur leicht vor einer 5970 liegen, damit die aussage stimmt^^
 
Unter 300W bleiben stell ich mir da ganz schwer vor. Selbst die 5970 braucht im Furmark schon ~330 (normal max. 294W). Jetzt mit nochmal fast 1,5x mehr Transistoren und evtl. schon einem Single Verbrauch von über 225W. Entweder werden da die PCIe Specs erweitert oder nVidia kann eine Dual Karte einfach vergessen (was sie z.B. beim G80 ja freiwillig getan haben).
 
die 225 watt werden ja für 512 shader bei sehr hoher taktung angegeben. weniger takt erlaubt weniger volt. senkt man die voltzahl, sinkt überproportional der verbrauch. bereits bei der gtx380 dürfte ziemlich viel spiel nach unten sein, was die vcore angeht.

ich hab das notebook aus meiner sig durch undervolting von über 80 watt auf 35 watt idle verbrauch bringen können, ohne den takt auch nur um 1 mhz zu senken ;)

dann bleibt aber die frage, wie weit man mit dem takt runtergehen kann, um noch genug leistung gegen eine 5970 zu behalten. möglicherweise werden auch selektierte pgus verwendet, um den hohen takt bei geringer vcore halten zu können. dann frag aber nicht nach den preis so einer karte :D
bei der 7800gtx 512 ging der aufgrund der stark begrenzten stückzahl auf 1000 € rauf. auch wenn nvidia die eigentlich deutlich billiger angesetzt hatte, aber die geringen stückzahlen haben die händlerpreise explodieren lassen. wäre dann also wohl eher ein prestigeobjekt, um die leistungskrone zu holen.
 
Lübke schrieb:
dann bleibt aber die frage, wie weit man mit dem takt runtergehen kann, um noch genug leistung gegen eine 5970 zu behalten.
lol...ich glaub eher dass Nvidias Problem ist dass sie den Takt nicht hoch genug bekommen um gegen die 5870 zu bestehen, sonst wäre die Karte schon auf dem Markt ;)

Darf ich dich mal Fragen was das für ein Notebook ist mit 80!! Watt Idle?

Mein Phenom X2 auf X4 freigeschaltet und 3,2 GHz getaktet hat einen Idle-Verbrauch von 48W ohne Monitor. Und das bei Standard Spannung.
Bei Vollast brauch ich 120W beim decodieren auf 4 Kernen.
 
ich bin mir nicht mehr ganz sicher mit dem ursprünglichen verbrauch, da ich es bereits 2007 untervoltet habe, aber meine dass es so viel war. das notebook steht in der sig. es sind ja 2 x hdd, c2d in 65nm, eine 7900gs und nicht zu vergessen ein 17" display mit strom zu versorgen. war übrigends so ziemlich das erste notebook mit c2d-cpu. hab extra mit dem kauf gewartet, bis es den c2d endlich auch für notebooks gab^^

48 watt für den phenom-system @ stock halte ich aber nicht für möglich, nichtmal mit igp. ich hab meinen rechner nr1 aus der sig auf 85 watt gedrosselt, mehr ging nicht bei der cpu (ok die 3850 ist unangetastet). aber selbst ein atom braucht ja mit intel-chipsatz mehr strom Oô
 
Da das hier zu weit Offtopic wäre, mache ich einen extra Thread auf für meinen Phenom@49W - hab wohl um 1 W übertrieben nachdem ich grade nochmal genau nachgeschaut hatte.
Wenn du bestimmte Screenshot haben willst als nachweise, schreib mir eine PN :cool_alt:
 
stimmt, wir driften ab. ja ein screenshot wäre nett. und vllt kannste mir die konfig des systems dazu posten? vor allem grafik?

btt: ungeachtet der undervoltwerte, die complication und ich bei unseren systemen erreicht haben, kann man aber sagen, dass durch hand anlegen der verbrauch massiv gesenkt werden kann. das erfordert aber eine handselektion und die ist teuer. von daher tippe ich eher auf fermis mit gesenktem takt. auch 512 shader je gpu wären möglich, dafür aber eben entsprechend niedriger takt und vor allem niedrigere vcore. in der theorie machbar, aber in der praxis muss sich das erst noch zeigen, obs möglich ist. ati scheint jedenfalls damit zu rechnen...
 
lol...du hast mich falsch verstanden ich habe die Spannung nirgends gesenkt...ich habe übertaktet von 3,1 auf 3,2 GHz und 2 Kerne zusätzlich frei geschaltet und komme auf die 49W Idle ;)
Also kein Undervolting bei mir. Der Thread ist bald fertig und ich mach den Link hier rein.
Ergänzung ()

So Bitte Schön - Siehe Signatur :)
 
Complication schrieb:
Oder er erwartet die GF100 im April (er hatte ja zu kaufen gesagt ;) ) und die HD6 kommt schon im September :D

28 trallala, 28 trallala, 28 tralala :D

28nm Testwaver gabs ja auf der CES und wenn die Chips da runter evtl. jetzt schon lauffähig wären dann hätte AMD gegenüber Nvidia einen dicken Vorteil. TSMC wird 28nm erst gegen Ende des Jahres/Anfang 2011 bieten.

/edith Eben drüber gestolpert, dank an johnieboy :

Not a lot is known about Northern Islands. Some sources claim that the new chips will be made using 32nm fabrication process, but the others believe that the new chips will be made on 28nm node. There are also reports that Northern Islands will have richer feature-set compared to Evergreen. According to some other reports, ATI’s next-generation family is code-named Hecatonchires and will feature code-named Cozumel, Ibiza and Kauai chips, which are not northern, but southern islands. As a result, it is possible that ATI may be working on two new architectures.

HD5K Refresh in der zweiten Jahreshälfte: *klick mich*
 
Zuletzt bearbeitet:
Es wird schön langsam Zeit für die Fermi ... die neuen Spiele unterstützen schon DirectX11 und von der Performance her ist ne GTX285 auch schön langsam überfordert.
 
Und was gibts flotteres als eine GTX285? Teils die HD5850 und meist die HD5870. Ist eine GTX285 überfordert, ist es eine HD5850 meistens auch, die HD5870 kommt noch auf einen grünen Ast. Ausnahmen bestätigen die Regel, MGPU-Krüppel sind ohnehin außen vor.
 
Felixxz21 schrieb:
Unter 300W bleiben stell ich mir da ganz schwer vor. Selbst die 5970 braucht im Furmark schon ~330 (normal max. 294W). Jetzt mit nochmal fast 1,5x mehr Transistoren und evtl. schon einem Single Verbrauch von über 225W. Entweder werden da die PCIe Specs erweitert oder nVidia kann eine Dual Karte einfach vergessen (was sie z.B. beim G80 ja freiwillig getan haben).

Also, erstens weiss man überhaupt garnichts von dem Verbrauch der neuen Nvidia Karten ( die Nachricht von dem Gehäuse Hersteller auf der CES lass ich nicht gelten ;) ) , zweitens hat Nvidia es nicht nötig gehabt eine Dual GPU Karte auf Basis des G80 Chips zu bauen :)
 
Whoozy schrieb:
Also, erstens weiss man überhaupt garnichts von dem Verbrauch der neuen Nvidia Karten ( die Nachricht von dem Gehäuse Hersteller auf der CES lass ich nicht gelten ;) ) , zweitens hat Nvidia es nicht nötig gehabt eine Dual GPU Karte auf Basis des G80 Chips zu bauen :)
ja da musste erst ein "neuer" chip her. die gx2 kam knapp ein jahr nach dem g80. sollte das beim fermi genau so sein, dann wird das wohl nix mit april (außer vielleicht im nächsten jahr) ;)
 
Zurück
Oben