News Nvidia GeForce-300M-Serie vorgestellt

mtmac schrieb:
Aber im Ernst ma . Is ja fast so als würde VW beim Golf 5 neue Radkappen dran machen und würde ihn als Golf 6 verkaufen ....

Ham die das nicht so gemacht?

*duckundweg*

Fetter Fettsack schrieb:
Also ich hab bisher nur sehr selten Notebooks mit ATi-Chips gesehen im MM, aber das muss ja nichts heißen.

Zumindest im Saturn hier gibts jede Menge ATI-GPUs. Auch wenns sehr sehr wenig (wenn überhaupt) AMD CPUs gibt. MM hab ich auch welche gesehen, da scheint es also keine "Probleme" zu geben, das Zeug loszuwerden.

Unyu schrieb:
Die ständigen Behauptungen eine GTX 295 sei eine umbenannte 8800 GTX kotzen langsam nur noch an.

Hab ich nicht behauptet ;)

Unyu schrieb:
Darüber hinaus lügt er, GT 240 und GTS 360M sind verschiedene Produkte. Nicht nur wegen dem M, auch die Performance.

Die 360 ist langsamer?

Nee, im Ernst, wozu wird das (schon wieder) gemacht? Man hatte doch erst die 200er Serie neu gemacht. Auch um die Produkte neu zu positionieren von mir aus (ums übersichtlicher zu gestalten für die Kunden)

Aber das nimmt langsam groteske Ausmaße an. Ich hab so das Gefühl, NVIDIA möchte gern ATI bei der Höhe der Produktbezeichnungen "überholen".

Vielleicht verkauft sich GTx 2xx nicht mehr so gut wie 9xxx GTx. Aber vielleicht liegts ja auch an den Produkten....
 
KAOZNAKE schrieb:
Nee, im Ernst, wozu wird das (schon wieder) gemacht? Man hatte doch erst die 200er Serie neu gemacht. Auch um die Produkte neu zu positionieren von mir aus (ums übersichtlicher zu gestalten für die Kunden)
Wie gesagt, keine Ahnung.
Meine 2 Erklärungansätze stimmen mich auch nicht ganz glücklich. Wobei der erste, "eine 300 so müssen andere 300 folgen" noch am Plauibelsten erscheint.
Wobei wir wieder bei der Frage wären, warum die 310 überhaupt erschienen ist.

Fetter Fettsack schrieb:
Welchen denn? Ich hab den anscheinend übersehen.
Das war auf die allgemeine Stimmung bezogen, das alle G80 nachfolgenen GPUs gleich seien, bzw das die GTS 360M eine umbenannte 8800 GT sei.
Wie auch immer, nimm die genannten Beispiele nicht zu wörtlich.
 
nille02 schrieb:
Ich habe mehrere Rechner mit ATI Karten und noch keine Probleme gehabt. DXVA nutze ich auch jeden Tag und es macht auch keine Probleme.

Und wegen Level 5, kein Player unterstützt es und wenn man doch mal L5 Material hat sind es meist Veröffentlichungen aus Illegalen Tauschbörsen ;)
Ich weiß ja net welche Player du meinst, aber es gibt sehr wohl Player die das Unterstützen wobei es eig um den Decoder geht, der Player is völlig egal..
Und es gibt auch noch andere Quellen für sowas...es gibt ein paar offizielle Trailer die mit L5.1 codiert sind...

Und wenn du mal ins ATi Forum guckt, wirst du sehen, dass es viele Leute mit DXVA Problemen gibt...
 
nVidia bietet zumindest mit allen neuen Modellen DirectX 10.1 Unterstützung an. Wenn sich durch neue Bezeichnungen mehr Chips absetzen lassen, ist das Grund genug es zu tun. Bei mobilen Lösungen braucht man selten wirklich viel 3D Leistung, und auch die meisten Desktop Computer sind mit integrierten GPU bestens bedient.
 
RV870 basiert auf R600.
Hoffentlich kommt bei der nächsten HD5 News der selbe Rotz "umbenannte HD 2900 XT".

Hehe, jo. Nur hat sich bei den ATI Karten ein wenig mehr verändert und die Geschwindigkeit ist stark gewachsen... ;)

Das NV Probleme beim Verkaufen hat glaube ich dagegen nicht. Im MM und Saturn steht dann "Mit neuster Nvidia-Gamingkarte..." und der Verkäufer sagt dazu: "Ja, die NV Karten sind schon so das Beste" und die sache ist verkauft, egal wie scheiße oder alt die Karte sein mag.
Wenns drauf ankommt sagt der gebildete Verkäufer auch noch "Ja, DX11 ist auch nich so gut wie 10.1. Das 11er hat noch zu viele Fehler und is instabil" :lol:

BTW: Was gibts denn nu mit AMD-Rechnern bei MM etc? Gibts immer noch nich, oder? Hoffentlich bekommen die Händler da auch nochma auf den Sack :D
 
haben die Karten tatsächlich nur GDDR3 und 128bit?
bleibt für die Notebookgaming- Liebhaber in der NV Fraktion nur zu hoffen, dass es auch Ableger des Fermi mit höherer Leistung und DX11 geben wird, ansonsten wird AMD wohl alleiniger Grafikkartenausstatter für High-End Gamingnotebooks.
(wobei ich keine Ahnung habe wie groß dieser Markt ist, würde mir persönlich ja nie so ein lautes, heißes und vorallem schweres Teil kaufen)

für ein Notebook im eigentlichen Sinn (mobiles Gerät), werden diese Lösungen aber sicher mit den AMD Pendants leistungsmäßig konkurrieren können (außer DX11), denn beide kochen nur mit Wasser und nVidia hat bei den OEMs anscheinend noch immer sehr viel Gewicht.
(wenn man vergleicht wieviele Notebooks mit AMD vs. nVidia Karte rauskommen)
 
Hameno schrieb:
Ich weiß ja net welche Player du meinst, aber es gibt sehr wohl Player die das Unterstützen wobei es eig um den Decoder geht, der Player is völlig egal..
Und es gibt auch noch andere Quellen für sowas...es gibt ein paar offizielle Trailer die mit L5.1 codiert sind...


Ich meine Hardware Player und keine Plumpe Software auf dem PC.
 
Buntstift schrieb:
@nille02
BEISPIEL?! :rolleyes:

Wofür? Die Player werden durch das BD Laufwerk Limitiert. Bei Videos wird das Laufwerk nur mit 1x oder 2x betrieben was die maximale Bandbreite vorgibt (BD max. 40 MBit/s Video und 14 MBit/s Audio ) und Level 5 (135 Mbit/s)Sprengt das Limit.

PS: In Deutschland ist fast Neujahr deswegen wünsche ich allen einen guten Rutsch ins neue Jahr.
 
Zuletzt bearbeitet:
Dell hat von NV jedenfalls aktuell die Schnauze voll wenn man deren Produkte anschaut.
 
Somit ist klar, dass ich für Leute die auch nur ein bisschen zocken wollen und nen Laptop haben wollen, ich spätestens ab dem 2. Halbjahr 2010 nur noch Ati Laptops empfehlen werde...

tree-snake schrieb:
Dell hat von NV jedenfalls aktuell die Schnauze voll wenn man deren Produkte anschaut.
Jo, war ja auhc ziemlich öffentlich.
Wegen dem Grafikchip Desaster hat Dell Nvidia in die Pflicht genommen, als die allerdings nicht reagiert haben hat Dell reagiert^^

Highend Desktop Grafikkarten von ATi gekauft (HD 58XX) und auch alle neuen Notebooks nur mit ATI rausgebracht.
 
Wäre es für die "Neue" Serie nicht sinnvoller gewesen, jetzt nachdem man sieht was nvidia draus gemacht hat, lieber die GPU mit 1GB zu lassen, stattdessen wieder auf 256bit und evtl mehr Shadereinheiten und ggf. höheren Taktraten zu setzen?

Des Weiteren habe ich bisher nicht gefunden mit welcher nm-Technologie die GPUs gebaut werden.

Den Performance unterschied hat man damals schon gemerkt, als es noch die 8700 gab mit 128bit und dann die 8800M GTX kam mit 256bit. Der war schon nicht ohne :)
 
Also ich hab ja nix dagegen, wenn man einem Produkt nen kleines Refresh verpasst und als neu weiterverkauft. Aber wenn man überhaupt nix neues mehr rausbringt und insbesondere wenn man die refreshes und re-lables schon gar nicht mehr zählen kann, wirds albern.
Dass dieser Re-re-re-re-re-re-re-re-re-release ganz ohne Pressemitteilung und großes Drumherum das Licht der Welt erblickt, erstaunt folglich nicht unbedingt.
 
Schleeeeeeecht! Mehr fällt mir dazu nicht mehr ein!:freak: Meine nächste Laptop-Graka. wird ne ATi!

Die eiern jetzt schon quasi seit der GeForce 8M auf den selben Chips rum. Die G90er sind ja quasi nur billige Ableger des G80. So und das sind dann fünf verdammte Generationen an Mobile-Chips ohne viel oder teilweise gar nix zu verändern! Das ist mal richtig schlecht.

MfG M.R.
 
Zuletzt bearbeitet:
Mag das hier wieder schlechter sein, der Fermi scheint dafür ja die eierlegende Wollmilchsau zu werden.

PS: Nicht ganz Ernst nehmen, ich beziehe mich nur auf die Pressepropaganda der letzten Wochen. :)
 
bensen schrieb:
Ein G80 gleicht einer GT240 wie eine HD2900 einer HD4770.
Nicht wirklich. Zwischen der 2000er und 4000er Radeon Serie gibt es doch einige gravierende Unterschiede, wie eine unterschiedliche AA Implementierung oder DP Support. Die gibt es bei der GT 240 nicht. Die ist im Kern praktisch immer noch G80, lediglich mit einigen Überarbeitungen, wie DirectX 10.1 Support oder besserer HD Beschleunigung. Aber das gab es ja bei ATI genauso.


@topic
Langsam wird es immer offensichtlicher, was nVidia macht. Sie fahren praktisch zweigleisig. Nur die "grossen" GPUs basieren auf einer neuen Generation, "kleine" GPUs basieren hingegen auf alten Generationen und werden lediglich etwas aktualisiert. Fehlen da Ressourcen oder läuft bei der Entwicklung grundsätzlich etwas schief? Ich kann mir nicht vorstellen, dass das auf Dauer gut geht. Mit jeder weiteren Generation zieht ATI ein Stück weiter davon. Mehr Marktanteile hat AMD ja mittlerweile bei diskreten mobilen GPUs. Und die werden in Zukunft definitiv nicht nachlassen. Langsam sollte nVidia mal aufwachen und erkennen, die G80 vs R600 Zeiten sind lange vorbei.
 
Ist ja auch nicht verwerflich, denn für beide Sparten ist sicher auch genügend Markt da. Schließlich müssen ja nicht alle HighEnd-Leistung mit neuesten features zuhause haben...
 
@gruffi
Ich glaube nicht das man das durchkauen muss. Auf beiden Seiten gab es viele entscheidende Änderungen. Der Vergleich ist durchaus passend.
 
Hallo,
scheinbar sind die GT200-Chips so am Limit, dass man den Verbrauch nicht auf ein für Laptops nötiges Niveau drücken kann. Daher versucht NVidia das ganze zu umgehen und setzt auf die GT200/G92-Mischchips wie GT218/215/216. Allerdings ist die Benennung schon sehr dreist.

Schließlich denkt man bei GF 300M an einen Ableger der Fermi Architektur und nicht an GT240.
Auch die Nummerierung innerhalb der Baureihe ist doch sehr übertrieben. Eine GTS360M klingt vom Namen nach in etwa auf dem Niveau einer GTX260 (neuere Generation sollte schneller sein, aber da Mobile ~gleich schnell), liegt wohl aber nur leicht über einer GT240 und weit vom Soll weg.
Bei ATI ist man da näher am Soll. Schließlich entspricht eine Mobility HD4850 in etwa einer Desktop HD4830 und die Mobility HD4870 liegt etwas über einer HD4850 für Desktop.
NVidia sollte sich bei der Benennung doch eher an die Desktop-Modelle anlehnen, die Kunden könnten sich sonst etwas verschaukelt fühlen.

Im mobilen HighEnd-Bereich bietet NVidia aktuell keine Konkurrenzprodukte zu einer Mobility 4850/4870 an. Bisher lag das am Stromverbrauch (GTX280M~9800GT: 75W TDP; Mob. HD4870~HD4850: 65W TDP). Mal schauen, ob sie mit 40nm mehr raus holen können. Ich aktuelles Topmodell (GTX280M SLI) liegt etwa auf GTX260-Niveau, verbraucht aber schon 150W (TDP), während eine Mobility Radeon HD4870 X2 auf 130W TDP und die Leistung einer 4850 X2 kommt.

Allerdings wird ATI ja bald auf die Mobility HD5-Generation umsteigen und daher auch wieder zulegen.

Bezüglich dem 256Bit SI sollte man bedenken:
Die Desktop-Varianten haben auch nur ein 128Bit Interface, daher macht es auch keinen Sinn hier mehr Bandbreite zu bieten. Die GPU ist einfach zu langsam, um davon profitieren zu können. Dass man ein 256Bit SI auch problemlos auf ein MXM bekommt, sieht man an der GTX2xxM oder den 98xxM Modellen, sowie an den höherwertigen ATI Lösungen. Aber bei der GTS3xxM macht es einfach keinen Sinn (und geht natürlich auch nicht, ohne den Chip umzubauen).

Wer sich genauer über die Mobilen GPUs informieren will, der sollte sich die Übersicht im 3DCenter anschauen. Da sind alle Daten zusammengefasst und ein Quervergleich zum Desktopbereich ist auch dabei.

Unyu schrieb:
Tolle Sache.
RV870 basiert auf R600.
Hoffentlich kommt bei der nächsten HD5 News der selbe Rotz "umbenannte HD 2900 XT".
Wenn man es so genau wie du nimmt, dann ist sogar schon z.B. ein RV630 deutlich anders als ein R600. Ganz zu schweigen von einem RV670 (HD3870)...
Ich wüsste auch nicht, dass eine 5870 die selbe Rechenleistung wie eine HD2900XT hat. Aber genau das ist bei der GTS 360M der Fall (entspricht in der Leistung einer 9800M GT). NVidia führt also neue Modelle ein, die in der Leistung teilweise den Vorgängern unterlegen sind, aber eine Nummerierung haben, die eben mehr Leistung vermuten lässt.
Gruß Oberst.
 
Zuletzt bearbeitet:
Zurück
Oben