Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Oh, tut mir leid das mit DP Double Precision gemeint war, sorry ^^
Du hast geschrieben, dass Fermi darauf basieren wird, und das muss er nicht unbedingt, da FMA für GPGPU effizienter ist (meiner Kenntnis nach), als MADD. Und meine war halt darauf bezogen, dass auch schon die GTX200er FMA unterstützen.
So ich bin heute mal früh aufgestanden und was sehe ich? Ein Media-Markt Prospekt.
Ein PC schön fotografiert mit edlem Case und Q8300Prozessor und als Grafikkarte eine G310.
Darüber prankt in großer Schrift über der Grafikkartenbezeichnung "WELTNEUHEIT!!"
Danach hat mir wahrlich das Frühstück nicht mehr sogut geschmeckt, als sonst.
aber zum glueck macht ATI nicht nur einen neuen aufkleber dran. die specs bei den NV karten haben sich ja mal wieder gar nicht geaendert bis auf ein klein wenig (5% ?!) mehr takt.
bleibt nur noch die frage, ob die karten wenigstens DX10.1 haben, denn NV scheint irgendwo was mit DX10 geschrieben zu haben - und waere wirklich arm!
Wie hier bereits angemerkt wurde, steht auf der Produktseite von Nvidia in den Spezifikationen eine Unterstützung lediglich für DX 10. Ob das nun ein Fehler ist oder richtig, kann aber wohl nur Nvidia sagen. Zumindest steht es sowohl auf der deutschen als auch auf der englischen Produktseite.
Edit:
Zitat Produktseite: "GeForce GTS 350M Grafikprozessoren sind für höchste Leistung und Geschwindigkeit entwickelt und liefern bis zu 50 % mehr Grafikleistung als die Notebook-Grafikprozessoren der Vorgängergeneration für grafikintensive Actionspiele."
Daran möchte ich einfach nur zweifeln.
Zuletzt bearbeitet:
(+ Zitat von Nvidia (Werbeslogan))
Du hast geschrieben, dass Fermi darauf basieren wird, und das muss er nicht unbedingt, da FMA für GPGPU effizienter ist (meiner Kenntnis nach), als MADD. Und meine war halt darauf bezogen, dass auch schon die GTX200er FMA unterstützen.
Meine Aussage, worauf Fermi basieren wird, hatte nichts direkt mit Double Precision oder FMA zu tun. nVidia wird nun genauso wie ATI schon seit dem R600 auf eine Multiplikation und eine Addition pro ALU setzen. Davor waren es bei nVidia 2 Multiplikationen und eine Addition. Wie dies letztendlich implementiert wird, als MADD oder FMA, war für die Aussage unerheblich. FMA ist auch nicht effizienter per se, maximal präziser. Der Unterschied ist lediglich, dass bei FMA nach der Multiplikation noch nicht gerundet wird, bei MADD hingegen schon (single rounding vs double rounding). Das Ergebnis kann dadurch variieren.
Bei FMA wird ein Schritt gespart, da bei MADD erst multipliziert wird, dann gerundet, und dann noch mal addiert und gerundet. Bei FMA passiert da in einem Rechenschritt und dann wird gerundet afaik. Ergo spart man sich einen Schritt. Ob das aufs selbe hinausläuft, kann ich nicht sagen, dafür habe ich zu wenig Ahnung von der Materie.
Schaffe89 schrieb:
So ich bin heute mal früh aufgestanden und was sehe ich? Ein Media-Markt Prospekt.
Ein PC schön fotografiert mit edlem Case und Q8300Prozessor und als Grafikkarte eine G310.
Darüber prankt in großer Schrift über der Grafikkartenbezeichnung "WELTNEUHEIT!!"
Danach hat mir wahrlich das Frühstück nicht mehr sogut geschmeckt, als sonst.
aber zum glueck macht ATI nicht nur einen neuen aufkleber dran. die specs bei den NV karten haben sich ja mal wieder gar nicht geaendert bis auf ein klein wenig (5% ?!) mehr takt.
Ich glaube, hier geht es um die GeForce-300M-Serie. Das hat nichts mit Fermi zu tun. Fermi ist übrigens nicht "genau wie" G80. G80 war eine komplett neue Architektur. Das wird Fermi nicht. Fermi ist eine Weiterentwicklung des G200, mit der Shader Architektur der dritten Generation auf Basis des G80, mehr ROPs/TMUs, GDDR5, DirectX 11 Support, Befehlssatzerweiterungen für GPGPU und eventuell dem einen oder anderen bisher noch nicht bekannten Feature.
der unterschied g80 zu gf100 wird vermutlich größer ausfallen als der von nv40 zu g70 aber bedeutend geringer als g70 zu g80.
wo man jetzt die grenze zwischen weiterentwicklung und komplett neu zieht, ist auslegungssache.
Es ist doch eindeutig eine fließende Grenze. Womit man behaupten kann, dass niemand recht hat, aber auch niemand falsch liegt.
Natürlich behauptet Nvidia, dass dies eine komplett neuer Chip ist. Was anderes wäre auch enttäuschend, bzw keine gute Werbung.
@Shurkien: ich meinte den g200. der ist doch angeblich nur ein modifizierter g80. und das war nebenbei eine ironische bemerkung^^
lies ma meinen post #134
Ohman.. G80 ist die Basis vom g200 gewesen
Der Fermi aber wird eine komplett neue Architektur und nix mit G200/G80 zutun haben und nicht auf diesen aufbauen
Ma guckn wann jetzt einer kommt der meint:"Basis G92 " Und danach: "Basis G92B "