News Nvidia GeForce-300M-Serie vorgestellt

Oh, tut mir leid das mit DP Double Precision gemeint war, sorry ^^

Du hast geschrieben, dass Fermi darauf basieren wird, und das muss er nicht unbedingt, da FMA für GPGPU effizienter ist (meiner Kenntnis nach), als MADD. Und meine war halt darauf bezogen, dass auch schon die GTX200er FMA unterstützen.
 
So ich bin heute mal früh aufgestanden und was sehe ich? Ein Media-Markt Prospekt.
Ein PC schön fotografiert mit edlem Case und Q8300Prozessor und als Grafikkarte eine G310.
Darüber prankt in großer Schrift über der Grafikkartenbezeichnung "WELTNEUHEIT!!"
Danach hat mir wahrlich das Frühstück nicht mehr sogut geschmeckt, als sonst.
 
LuXon schrieb:
@mellon80

Die HD5k basieren auch auf der hd2k-serie.
Ich kann da ja genau das gleiche über Ati sagen:lol:

aber zum glueck macht ATI nicht nur einen neuen aufkleber dran. die specs bei den NV karten haben sich ja mal wieder gar nicht geaendert bis auf ein klein wenig (5% ?!) mehr takt.
bleibt nur noch die frage, ob die karten wenigstens DX10.1 haben, denn NV scheint irgendwo was mit DX10 geschrieben zu haben - und waere wirklich arm!
 
@Statler_Waldorf

Wie hier bereits angemerkt wurde, steht auf der Produktseite von Nvidia in den Spezifikationen eine Unterstützung lediglich für DX 10. Ob das nun ein Fehler ist oder richtig, kann aber wohl nur Nvidia sagen. Zumindest steht es sowohl auf der deutschen als auch auf der englischen Produktseite.

http://www.nvidia.de/object/product_geforce_gts_350m_de.html z.B.

Edit:
Zitat Produktseite: "GeForce GTS 350M Grafikprozessoren sind für höchste Leistung und Geschwindigkeit entwickelt und liefern bis zu 50 % mehr Grafikleistung als die Notebook-Grafikprozessoren der Vorgängergeneration für grafikintensive Actionspiele."
Daran möchte ich einfach nur zweifeln.
 
Zuletzt bearbeitet: (+ Zitat von Nvidia (Werbeslogan))
Windows 7 optimal nutzen ohne DX 11 mit ner umbenannten krücke Leute Verarschung ist das mehr nicht.
 
united3000 schrieb:
Du hast geschrieben, dass Fermi darauf basieren wird, und das muss er nicht unbedingt, da FMA für GPGPU effizienter ist (meiner Kenntnis nach), als MADD. Und meine war halt darauf bezogen, dass auch schon die GTX200er FMA unterstützen.
Meine Aussage, worauf Fermi basieren wird, hatte nichts direkt mit Double Precision oder FMA zu tun. nVidia wird nun genauso wie ATI schon seit dem R600 auf eine Multiplikation und eine Addition pro ALU setzen. Davor waren es bei nVidia 2 Multiplikationen und eine Addition. Wie dies letztendlich implementiert wird, als MADD oder FMA, war für die Aussage unerheblich. FMA ist auch nicht effizienter per se, maximal präziser. Der Unterschied ist lediglich, dass bei FMA nach der Multiplikation noch nicht gerundet wird, bei MADD hingegen schon (single rounding vs double rounding). Das Ergebnis kann dadurch variieren.
 
Bei FMA wird ein Schritt gespart, da bei MADD erst multipliziert wird, dann gerundet, und dann noch mal addiert und gerundet. Bei FMA passiert da in einem Rechenschritt und dann wird gerundet afaik. Ergo spart man sich einen Schritt. Ob das aufs selbe hinausläuft, kann ich nicht sagen, dafür habe ich zu wenig Ahnung von der Materie.


Schaffe89 schrieb:
So ich bin heute mal früh aufgestanden und was sehe ich? Ein Media-Markt Prospekt.
Ein PC schön fotografiert mit edlem Case und Q8300Prozessor und als Grafikkarte eine G310.
Darüber prankt in großer Schrift über der Grafikkartenbezeichnung "WELTNEUHEIT!!"
Danach hat mir wahrlich das Frühstück nicht mehr sogut geschmeckt, als sonst.

Diese Anzeige habe ich leider auch gesehen, wusste aber nicht, ob ich mich drüber amüsieren sollte, oder eher trauern...
 
Statler_Waldorf schrieb:
aber zum glueck macht ATI nicht nur einen neuen aufkleber dran. die specs bei den NV karten haben sich ja mal wieder gar nicht geaendert bis auf ein klein wenig (5% ?!) mehr takt.

Dir ist bewusst, das Femri genau wie G80 ein komplett neuer Chip ist?
 
Shurkien schrieb:
Dir ist bewusst, das Femri genau wie G80 ein komplett neuer Chip ist?
Ich glaube, hier geht es um die GeForce-300M-Serie. Das hat nichts mit Fermi zu tun. ;) Fermi ist übrigens nicht "genau wie" G80. G80 war eine komplett neue Architektur. Das wird Fermi nicht. Fermi ist eine Weiterentwicklung des G200, mit der Shader Architektur der dritten Generation auf Basis des G80, mehr ROPs/TMUs, GDDR5, DirectX 11 Support, Befehlssatzerweiterungen für GPGPU und eventuell dem einen oder anderen bisher noch nicht bekannten Feature.
 
Laut NV ist Fermi keine Weiterentwicklung des G200 sondern ein komplett neuer Chip.
 
Shurkien schrieb:
Laut NV ist Fermi keine Weiterentwicklung des G200 sondern ein komplett neuer Chip.
Ein neuer Chip, ja. Aber keine komplett neue Architektur. Die Basis ist G200.
 
Es ist doch eindeutig eine fließende Grenze. Womit man behaupten kann, dass niemand recht hat, aber auch niemand falsch liegt.
Natürlich behauptet Nvidia, dass dies eine komplett neuer Chip ist. Was anderes wäre auch enttäuschend, bzw keine gute Werbung.
 
Shurkien schrieb:
G80 wird nicht die Basis vom Fermi wie oft noch
Richtig, Basis ist G200. Die Entwicklungen beim G200 wird man mit Sicherheit nicht wieder verwerfen und beim G80 anfangen.
 
Ohman.. G80 ist die Basis vom g200 gewesen
Der Fermi aber wird eine komplett neue Architektur und nix mit G200/G80 zutun haben und nicht auf diesen aufbauen

Ma guckn wann jetzt einer kommt der meint:"Basis G92 :freak:" Und danach: "Basis G92B :freak:"
 
Zurück
Oben