Bericht Bericht: Nvidia GF100: Technische Details

Complication schrieb:
Ist doch schon auf dem Weg - mit Ati wirst du schon in 3D zocken können bevor Nvidia erste echte Benchmarks raus bringt:

nv bietet jetzt schon zocken in 3d an, im gegensatz zu ati.
 
AwesomeSauce schrieb:
@DvP
Mehr als 60Fps bringen dir bei einem 60Hz-Monitor nur optisch nichts, was aber nichts daran ändert, dass die Inputdaten viel öfter abgefragt werden können und sich das Spiel deswegen genauer und flüssiger steuern lässt (ohne schwammigen Inputlag).
Wow, endlich mal jemand der es versteht.

Ist bei GF100 eigentlich schon mal irgendwas bezüglich Mikroruckler bekannt?
 
Ich hätte da mal die Frage, wo der Stromverbrauch ungefähr(!) theoretisch liegen könnte.

Es gab in der Vergangenheit ne Hand voll findiger Jungs, die anhand des Speicherinterfaces und der TMUS, ROPS und Co. ungefähr grob berechnen konnte, wieviel so eine zukünftige Karte sich wohl ca. (!) unter Last genehmigen werden wird.

Kann man da bereits Aussagen treffen? Ist sie eher als noch heißer als eine GTX280 einzuschätzen? Eventuell hat da jemand eine Idee.
Denn selbst wenn schätzungsweise nächsten Monat ein 450 Watt SFX Netzteil mit 2 Grafikkartenschienen auf den Markt kommt, das sich für kleine Computer eignet: Übertreiben muss man es dennoch nicht mit dem Verbrauch.
Erstens ist es laut und zweitens ist es mir im Sommer bereits warm genug in meiner Wohnung. Die Folgekosten lasse ich mal außen vor.

LG
 
acc schrieb:
nv bietet jetzt schon zocken in 3d an, im gegensatz zu ati.

Man kann auch mit ATI in 3D spielen. Es gibt nicht nur 3D Vision, sondernn ncoh eine Handvoll anderer Techniken - von Shutter, über Polarisation bis hin zu speziellen 3D Monitoren.
http://www.mtbs3d.com/phpbb/viewtopic.php?f=39&t=3018

3D Vision ist ein alter hut, Shutterbrillen sinds auch, hier ist nur der Vorteil, das Treiber, Grafikkarte und Brille von einem Hersteller kommen. Ob dies nun ein Vorteil ist, ist eine andere Sache. Ich persönlich finde die Polfilter Technik besser, und die kann man eben auf Karten beider Hersteller nutzen.

Einhörnchen schrieb:
Das Nvidia dies "ebenso" handhaben würde, macht die Aussage aber nicht richtiger. ~360€ bzw. ~260€ sind nicht nur meiner Meinung nach, sondern auch im Vergleich zu ehemaligen Top Single GPU Karten der letzten Jahre nicht unverschähmt teuer.


Neo_Xsendra schrieb:
@4ndreas

tja nv bietet das seit jahren ...
...
@milamber!
das mit asfark hatten wir durch er sprach von der geforce5

EDIT:
ach das 3d soll bei ati schon im nächsten treiber kommen? gibts schon genaue infos welche technik genau sie dafür verwenden wollen? bzw obs die übliche shutterbrille wird?

Und Elsa bot dies schon im letzten Jahrtausend. Wie schon geschrieben, 3D gibts nicht nur von Nvidia.

AMD/ATI zieht mit Brillen eines 3. Herstellers laut hier verlinkter News auf Hardwareluxx mit Shutter nach.

Das mit der GeForce 5000 war dann aber sehr unglücklich vormuliert :p
 
miagi schrieb:
@Complication
jo aber die monitore sehen recht klein aus also keine hohe aufleosung... ausserdem kann man anhand des youtube-vids nicht wirklich klar erkennen wie fluessig das laeuft.
Das sind 3x 22" und das Spiel wird mit einer HD5770 gespielt.
Das ist grade mal ne halbe 5870!

AwesomeSauce schrieb:
Dafür ist der Treiber zuständig, nicht das Spiel.
[...]
Die neuen TMUs sollen viel effizienter arbeiten, und afaik im 1:2 Verhältnis zum Shader-Core laufen...
Das mit dem Treiber ist eine gute Nachricht! Dann war Ati der First Mover und Nvidia hat es besser Umgesetzt. Die Tessellation Units je nach Kartengröße mit zu skalieren ist genial :)

Die Taktraten bei 1:2 sind dann aber eine kritische Größe bei weniger TMUs - bin gespannt wie sich das in Benchmarks auswirkt :)
Wobei sich für mich die Sache mit Eyefinity entschieden hat - ich brauch auf die Fermis nicht zu warten, da ich ein 3 Monitor Setup mit unterschiedlichen Monitor Grössen und Auflösungen benötige. Wird wohl eine 5770 werden und ein schöner neuer 24" mit DP.
Dann läuft das Outlook im 17", und der 22" und der 24" haben schön Platz zum Arbeiten - mit Hydravision ist das Perfekt. Beim Zocken den 24" im Singelbetrieb reicht mir für Anno :)
 
Tesla C2050 / C2070 verbrauchen bei 448CCs etwa 190W (Link). Ich rechne mit bis zu 220-250W für eine FullDesign-Fermi (512CCs)... Alles natürlich höchst spekulativ. Da muss man einfach abwarten!

@Complication
Laut Nvidia soll sich die Leistung der TMUs um etwa 40-65% steigern gegenüber dem GT200.



Und mit Eyefinity gebe ich dir Recht - ist eine sehr gute Technik, mir reicht aber ein oder zwei Monitore. Verstehe aber, dass es Leute gibt, die mehr brauchen/wollen...
 
Zuletzt bearbeitet:
f1delity schrieb:
Ist bei GF100 eigentlich schon mal irgendwas bezüglich Mikroruckler bekannt?
Soweit ich weiß immer noch AFR, d.h. restlos werden sie nicht beseitigt sein. Möglicherweise hat der Release-Treiber von Nvidia noch ein paar Optimierungen diesbezüglich, aber da wäre ich pessimistisch.
 
war mit multikarten/multi gpu nicht iwas mit neuen patenten im gespräch? ich hab das was in erinnerung aller "frist viel leistung, dafür aber ohne ruckler"

andrerseits könnte man auf den hydra chip hoffen :3

EDIT:

ich seh grade, dass doch ne dual karte geplant sein soll, die 2 monate nach dem release der 360/380 kommen soll.
http://www.fudzilla.com/content/view/17197/1/
 
Zuletzt bearbeitet:
miagi schrieb:
@wadenbeisser
ich rede vom 120Hz betrieb bei 2D darauf bin ich heiss.
kp was du mir sagen willst aber wenn zwischen zwei bildern aufm tft ein schwarzes bild eingefuegt wird sehen bewegte bilder schaerfer aus, sofern die Herz-Zahl hoch genug ist damit es nicht auffällt. habs mir selbst angeguckt ein Sony 200Hz geraet sehe ich ruckeln dagegen wirkte der selbe einspieler bei einem Sony 100Hz Pro LCD perfekt fluessig. So wird CRT sozusagen simuliert und es funktioniert gut! Sofern die Herz-Zahl bei einem CRT hoch genug ist gibts auch keine probleme. ich hatte damals einen Iiyama 19" den ich mit 120Hz benutzt habe und mich hat da nichts flimmerndes gestoert.

Siehe den Punkt LCD TV.
Das Display wird nur deshalb dicht gemacht um das nachziehen des Bildes (Mausspuereffekt) aufgrund der Trägheit der Display Technologie zu minimieren, was sich bei grösser werdenen Bilddiagonalen bei konstanter Pixelzahl des Displays noch verstärkt.
Anders ausgedrückt macht man es sich m.M.n. zu nutzen das die LCD Reaktionszeiten bei den Graustufen deutlich geringer sind (wodurch diese Angabe normalerweise bei Farbbildern ziemlich sinnlos ist) und macht deshalb das Bild zwischendurch dicht.
Der Witz an der ganzen Sache ist allerdings das durch die Shutterbrillen bei der 3D Darstellung die Bildrate pro Auge auf 60Hz halbiert wird und dadurch das Bild wohl wieder wie zu CRT Zeiten vor sich hinflimmern dürfte. :freaky:
 
Einhörnchen schrieb:
Da Nvidia jedoch das exakte Testsystem + Testeinstellungen genannt hat und zb die GTX 285 Werte mit nur 2 % Abweichung reproduziert werden konnten, würde mich das schon sehr wundern. Diese Hintertür hätten sie sich offen gelassen, wenn sie mit falschen Karten ;) gespielt hätten.

Naja, Fermi kann die Leistung ja vielleicht auch bringen, is nur die Frage ob sie in Consumer-Karten auch so laufen wird ;-) Eigentlich sollte es nur ein belibiges Beispiel sein, welches ich jetzt nicht weiter belegen will und kann. Ich wollte solche Daten auch nur ausreichend relativieren und bemerken, dass wir DIESE Daten nicht für überflüssige Spekulationen als Bais nehmen sollten ;-)
 
Ist eigentlich jemandem aufgefallen, dass die Vorab-Benchmarks normal skaliert sind? Also doppelt so lang = 200 %. Bei den Vorabinfos zum RV870 waren die AMD Folien noch anders... 20 % mehr Performance waren doppelt so lang dargestellt...

Siehe hier: http://www.hardwareluxx.de/images/s...ler/2009/videokonsolu_hd5850_benchmark-01.jpg

Edit: Bevor das falsch verstanden wird - ja, ich weiß, dass Nvidia damit zu GT200 Zeiten angefangen hat
 
Zuletzt bearbeitet:
AwesomeSauce schrieb:
Tesla C2050 / C2070 verbrauchen bei 448CCs etwa 190W (Link). Ich rechne mit bis zu 220-250W für eine FullDesign-Fermi (512CCs)... Alles natürlich höchst spekulativ. Da muss man einfach abwarten!

hängt natürlich auch stark von den endgültigen taktraten ab, wenn die höher als beim fermi liegen kommen noch mehr watt dazu. alles was ich bisher gesehen/gehört habe lässt mich von mehr als 200W für die topkarte ausgehen (vieleicht sogar mehr als 250).
 
Ich halte AMDs Strategie, technische Fortschritte marktreif in kleineren Schritten anzubieten immer noch für die bessere. Entgegen NVidia, welche ewig lang gar nichts hören lassen, um dann ein Monstergerät á la GTX360/380 vom Stapel zu lassen, konnte doch AMD eine Menge Umsatz generieren, indem Karten mit sehr guter Leistung zum moderaten Preis und für jeden Geldbeutel auf dem Markt verfügbar gemacht werden.

Im Sinne von uns Consumern hoffe ich, dass diese Strategie für NVidia langfristig erfolgreich ist. Sollte NVidia hier noch weitere Fehlschläge erleiden, leidet auch das Preisgefüge am Markt darunter.
 
AwesomeSauce schrieb:
Tesla C2050 / C2070 verbrauchen bei 448CCs etwa 190W (Link). Ich rechne mit bis zu 220-250W für eine FullDesign-Fermi (512CCs)... Alles natürlich höchst spekulativ. Da muss man einfach abwarten!

@Complication
Laut Nvidia soll sich die Leistung der TMUs um etwa 40-65% steigern gegenüber dem GT200.

So nebenbei...das in der Grafik sind 40-70%. Ist warscheinlich auch davon abhängig wo der Schwerpunkt bei der Grafikengine liegt.

Waren die tesla Karten nicht auch geringer getaktet oder habe ich das falsch in Erinnerung?
 
@hurga_gonzales

der gf100 soll der letzte "monsterchip" werden wenn cih mich recht entsinne. soweit ich weis ist der vater aller monsterchips nach diesem projekt nicht mehr für die leitung bei der entwicklung verantwortlich...
 
Neo_Xsendra schrieb:
ich seh grade, dass doch ne dual karte geplant sein soll, die 2 monate nach dem release der 360/380 kommen soll.
http://www.fudzilla.com/content/view/17197/1/
Das Gerücht halte ich mit den veröffentlichten Daten nicht mehr für tragfähig.

@Einhörnchen
Die sind nicht doppelt so lang, sondern fangen nicht bei Null an - solche Grafiken könnt ich auch immer in die Tonne treten :freak:
Es nervt wirklich dass die Marketing Typen diese Folien machen dürfen.
 
Complication schrieb:
Die Tessellation Units je nach Kartengröße mit zu skalieren ist genial :)

Darüber kann man sich herzlichst streiten. Soweit ich das bisher verstanden habe ist Tessellation so realisiert, dass jeder Cluster eine zusätzliche Einheit enthält. Allerdings ist diese Einheit alleine nicht in der Lage die benötigten Berechnungen durchzuführen, sondern benutzt die normalen Einheiten des Clusters mit, so dass sich die normalen Shaderprogramme, evtl. Physikberechnungen und Tessellation die vorhandenen Cluster untereinander aufteilen müssen.

Die theoretische Tessallation Leistung ist dann natürlich sehr hoch, in der Realität dann aber nur erreichbar, wenn keine Shader/Physik auf der GPU läuft. Bei kleineren Karten wird man dann Tessellation meistens ganz abschalten, da die Rechenleistung dort sowieso schon der limitierende Faktor ist selbst wenn man nicht noch Cluster für Tessellation opfern muss.

Bei den ATI Karten ist es eine separate Einheit, die von der kleinsten bis zur größte Karte die gleiche Leistung bringt (evtl. variabel bzgl. Taktfrequenz). Bei den High-End-Karten kann das nVidia-Konzept aufgehen, aber schon im Performance-/Mainstreambereich könnte das ein großer Nachteil sein.
 
hurga_gonzales schrieb:
Ich halte AMDs Strategie, technische Fortschritte marktreif in kleineren Schritten anzubieten immer noch für die bessere. Entgegen NVidia, welche ewig lang gar nichts hören lassen, um dann ein Monstergerät á la GTX360/380 vom Stapel zu lassen, konnte doch AMD eine Menge Umsatz generieren, indem Karten mit sehr guter Leistung zum moderaten Preis und für jeden Geldbeutel auf dem Markt verfügbar gemacht werden.
Der R600 hatte 6 Monate Verspätung zur 8800 GTX und war langsamer und insgesamt eine Gurke. Trotzdem was es die Basis für RV670, RV770, RV870.

Jetzt hat sich nvidia die Mühe gemacht, eine neue Architektur zu entwickeln. Ob sich darauf 2-3 Generationen gut ableiten lassen, wird man sehen müssen. Auch, wann ATI mit Manhatten/R900 kommen wird und wie diese aussehn wird. Dass AMD sich von den Merkmalen der Fermi in mehrfacher Hinsicht (extrem gute GPGPU Merkmale, Tesselation-Stärke) überraschen ließ ist jedoch nicht gut - denke nicht, dass sie da jetzt nicht im Hniblick auf die R900 Architektur reagieren können. Bleibt zu hoffen, dass diese ohnehin sehr gut war. Zu wünschen wäre es.
 
@Limit
Nein, die Tesselator-Einheiten sind eigenständig. Der Unterschied zwischen ATI und Nvidia ist hier, dass der ATI-Tesselator "nur" "tesselaten" kann, beim GF100 sinds zusätzliche programmierbare Einheiten (Streaming processors)...
 
Zuletzt bearbeitet:
Zurück
Oben