Das ist lediglich deine Meinung. Rein aus technologischer Sicht gab es die bei nVidia aber nicht. Oder kannst du uns grundlegende Änderungen an der Architektur zwischen G80 und GT215 nennen? Und wie gesagt, wir reden hier nicht von Feature Support wie DirectX 10.1 oder dergleichen.bensen schrieb:Auf beiden Seiten gab es viele entscheidende Änderungen.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Nvidia GeForce-300M-Serie vorgestellt
- Ersteller Jan
- Erstellt am
- Zur News: Nvidia GeForce-300M-Serie vorgestellt
Fetter Fettsack
Fleet Admiral
- Registriert
- Nov. 2009
- Beiträge
- 10.216
Ist ja auch nicht verwerflich, denn für beide Sparten ist sicher auch genügend Markt da. Schließlich müssen ja nicht alle HighEnd-Leistung mit neuesten features zuhause haben...
Aber dann sollte man auch mit den Preisen runtergehen, denn wenn ich alte Technik verkaufe, die immer weniger konkurrenzfähiger ist, scheint es mir nicht moralisch adequat zu sein, dafür einen gleichen oder sogar größeren Geldbetrag einzufordern (dass die Händler diese Unterschiede einstreifen, scheint mir wenig wahrscheinlich, wenn dem allerdings so ist, dann will ich nichts gesagt haben ).
Zuletzt bearbeitet:
- Registriert
- Feb. 2009
- Beiträge
- 679
gruffi schrieb:Das ist lediglich deine Meinung. Rein aus technologischer Sicht gab es die bei nVidia aber nicht. Oder kannst du uns grundlegende Änderungen an der Architektur zwischen G80 und GT215 nennen? Und wie gesagt, wir reden hier nicht von Feature Support wie DirectX 10.1 oder dergleichen.
nVidia musste auch nicht so gravierende Änderungen machen, da die Architektur zu dieser Zeit immer noch gut war. Warum sollte man etwas ändern, was dem Konkurrenzprodukt immer noch überlegen war?
Ati war damals gezwungen gravierende Änderungen zu machen, da sie sonst den Anschluss sehr wahrscheinlich verloren hätten.
also me hat vor 3 Jahren auf Notebook umgestiegen... 6600m gt Grafikkarte... vor 2 Jahre dann mein jetztiges mit 8600m gt 512mb Spiele und sürfe eigentlich nur mit dem Ding, pendel aber öfter von Freundin nach Hause etc etc
In Summe muss ich sagen, HABE ICH ES SEHR BEREUT... Obwohl ich vor 3 Jahre noch was anderes gesagt habe....
Ich hatte damals einen Denkfehler... was jetzt kommt, muss nicht stimmen. Habe es mir selber zusammen gereimt.
Vor 3 Jahren waren die Notebook Grakas näher an der Leistung der Destop Grafikkarten dran.... in den letzten 3 Jahren stieg aber die Verlustleistung der Grafikkarten auf ein derartig hohes Niveau an das man solche Teile nur sehr abgespeckt in die Notebooks stecken konnte... und selbst dann war die Verlustleistung noch wie vor zu hoch für das Kühlsystem...
Kämpfe immer wieder mit zufälligen Neustarts meines Notebooks .... hitzebedingt, und wenn man googel bemüht wird man merken das millionen das Problem haben... da kann man nicht dem User die Schuld geben ( außer das er es gekauft hat ;X wobei ich nirgendwo gelesen habe " Wird instabil nach 1 Stunde spielen aber lassen wir das nicht das thema )
Auch die nicht aufrüstbarkeit ist ein KO Kriterium, es gibt Destop Grafikkarten für unter 100 euro, die weit stärker wären JETZT wie meine Notebook Graka, aber tausche ist eben nicht..... und immer ein neues Notebook kaufen ist mir zuviel des guten
deswegen von mir, es können ruhig stärkere Grafikkarten kommen... in hinblick auf CUDA Zeugs da sogar super wie ich finde... und auch zum ab und zu mal spielen wenns nicht nicht immer high sein soll, auch eine Option .... aber für einen der gern AF und AA full hd und regler ganz rechts haben will... SICHER NICHT MEHR
Erst wenn da eine neue Technologie kommt, wo die Verlustleistung sich wieder stark reduziert, und die Notebooksgrakas wieder näher an ihrere Destop pedante rücken, schaue ich mir die Dinger wieder an...
bis dahin i love you " wieder " good old destop
In Summe muss ich sagen, HABE ICH ES SEHR BEREUT... Obwohl ich vor 3 Jahre noch was anderes gesagt habe....
Ich hatte damals einen Denkfehler... was jetzt kommt, muss nicht stimmen. Habe es mir selber zusammen gereimt.
Vor 3 Jahren waren die Notebook Grakas näher an der Leistung der Destop Grafikkarten dran.... in den letzten 3 Jahren stieg aber die Verlustleistung der Grafikkarten auf ein derartig hohes Niveau an das man solche Teile nur sehr abgespeckt in die Notebooks stecken konnte... und selbst dann war die Verlustleistung noch wie vor zu hoch für das Kühlsystem...
Kämpfe immer wieder mit zufälligen Neustarts meines Notebooks .... hitzebedingt, und wenn man googel bemüht wird man merken das millionen das Problem haben... da kann man nicht dem User die Schuld geben ( außer das er es gekauft hat ;X wobei ich nirgendwo gelesen habe " Wird instabil nach 1 Stunde spielen aber lassen wir das nicht das thema )
Auch die nicht aufrüstbarkeit ist ein KO Kriterium, es gibt Destop Grafikkarten für unter 100 euro, die weit stärker wären JETZT wie meine Notebook Graka, aber tausche ist eben nicht..... und immer ein neues Notebook kaufen ist mir zuviel des guten
deswegen von mir, es können ruhig stärkere Grafikkarten kommen... in hinblick auf CUDA Zeugs da sogar super wie ich finde... und auch zum ab und zu mal spielen wenns nicht nicht immer high sein soll, auch eine Option .... aber für einen der gern AF und AA full hd und regler ganz rechts haben will... SICHER NICHT MEHR
Erst wenn da eine neue Technologie kommt, wo die Verlustleistung sich wieder stark reduziert, und die Notebooksgrakas wieder näher an ihrere Destop pedante rücken, schaue ich mir die Dinger wieder an...
bis dahin i love you " wieder " good old destop
Fetter Fettsack
Fleet Admiral
- Registriert
- Nov. 2009
- Beiträge
- 10.216
nVidia musste auch nicht so gravierende Änderungen machen, da die Architektur zu dieser Zeit immer noch gut war. Warum sollte man etwas ändern, was dem Konkurrenzprodukt immer noch überlegen war?
Ati war damals gezwungen gravierende Änderungen zu machen, da sie sonst den Anschluss sehr wahrscheinlich verloren hätten.
Das rechtfertigt nun aber nicht, dass man selber auf der faulen Haut liegt .
quotenkiller
Lieutenant
- Registriert
- Okt. 2006
- Beiträge
- 935
nicht nur dell. ich habe sicherheitshalber eben bei hp nachgeschaut. 2 elitebooks mit wahlweise einer quadro fx oder fire xl, 2 pavillion notebooks ausschliesslich mit einer nvidia & 3 geräte wo man zwischen nvidia und amd/ati die wählen kann (die auswahlpalette an amd/ati notebook gpus ist enorm). betrachtet man alle notebook modelle, überragt natürlich intel mit den igp. platz zwei geht aber deutlich(!) an ati. insgesammt betrachtet sieht das nach gefühlten 60% intel, 35% amd/ati und 5% nvidia grafikkarten aus.tree-snake schrieb:Dell hat von NV jedenfalls aktuell die Schnauze voll wenn man deren Produkte anschaut.
die ursache dürfte sicherlich das chipdebakel vor anderthalb(?) jahren sein. die notebook hersteller reagieren auf sowas extrem allergisch.
daher kann ich die stimmen hier nicht verstehen, die sagen, dass nvidia weiterhin gute / bessere absatzzahlen im notebook gpu bereich haben würde & wird, als amd/ati.
zumindest meinen beobachtungen nach wurde nvidia bei den grossen notebook anbietern in die wüste geschickt. vielleicht bilden da die üblichen notebook anbieter für die mm / saturn notebooks eine ausnahme, aber das sind eher lächerliche absatzzahlen, die dort erreicht werden.
LikeMikeSter
Lieutenant
- Registriert
- Juni 2008
- Beiträge
- 519
Es gibt immer Parteien die für eine ATI stimmen, und welche die auf der Seite von Nvidia stehen. Ich persönlich hatte einen direkten Vergleich zwischen der Mobility ATI 4850 und der Nvidia 260M GTX.
Resultierend daraus muss ich sagen, dass ich mit der 260M GTX zufriedener bin als mit der ATI. Und die Leistung, welche die 280M GTX bringt ist auch völlig in Ordnung für ein Notebook. Mehr bingt die Mobility 4870 auch nicht zustande.
Was Nvidia jedoch mit der 300M Serie macht finde ich eher schlecht als recht.
Resultierend daraus muss ich sagen, dass ich mit der 260M GTX zufriedener bin als mit der ATI. Und die Leistung, welche die 280M GTX bringt ist auch völlig in Ordnung für ein Notebook. Mehr bingt die Mobility 4870 auch nicht zustande.
Was Nvidia jedoch mit der 300M Serie macht finde ich eher schlecht als recht.
K
Keineahnung1234
Gast
Das ist aber nicht das was interessiert, das was interessiert ist die leistung, und da merkt man warscheinlich schon ein bisschen mehr von HD2000 auf HD5000. Aber bei Nvidia merkste ja teilweise garnichts. Siehe 8800GT und 9800GT z.b. Is doch gut wenn ATI aus der HD2900XT noch soviel rausholen konnteUnyu schrieb:RV870 basiert auf R600.
Hoffentlich kommt bei der nächsten HD5 News der selbe Rotz "umbenannte HD 2900 XT".
Zuletzt bearbeitet von einem Moderator:
domidragon
Fleet Admiral
- Registriert
- Juli 2008
- Beiträge
- 11.532
Allerdings wird ATI ja bald auf die Mobility HD5-Generation umsteigen und daher auch wieder zulegen.
das wird dann was. die 5er serie hat im vergleich sehr wenig verlustleistung und trotzdem ordentlich power.
also ich muss sagen, ich hatte vor einem jahr eine 8600gt drin im notebook, hatte damit nur hitzeporbleme, taktete sich dann immer runter und die performance war im keller.
seit dem ich nun die 4670er drin habe, habe ich 2 mal so viel leistung und die temperaturen sind niedriger zudem ist das notebook leiser(was aber eher auf das notebook zurück zu führen ist...)
wenn es um notebooks geht empfehle ich seit dem NUR noch ati karten und als prozesor ein intel. nvidia sag ich schlicht weg nein bei mobilen lösungen. auf desktop ebene habe ich immer nvidia empfohlen. da meist stärker, mehr features, bessere treiber etc...
nun tendiere ich langsam mehr auf ati, wenn die die lieferfristen endlich in den griff bekommen und endlich mal gute treiber kommen...
und es sei gesagt, dass ich normalerweise auf nvidia schwöre, ich habe 2 88ultras drin und das schon seit 2.5jahren. die eine ist schon über 3 jahre drin. die laufen auch gut so. aber ich hab echt langsam die schnauze voll. viele haben heute noch ne 8er drin und viele wollen bald umsteigen. wenn die 300er serie wieder so ein reinfall wird wie die 9er und die 200er serie, dann bin ich bei ati.
renameing etc. soll ja ok sein, da muss man sich die frage stellen, warum das rad neu erfinden? bassierend auf die vorläufige generation ist ja ok. ABER EINE 1:1 KOPIE MIT NEUEM NAMEN, DAS IST EINDEUTIG ZU VIEL. nicht mal DX11 oder so haben se reingepackt. ich nen das jetzt 95% kundenverarsche. ich meine, wenn man sie unbenennt, aber sie kühler wird, neue features reinpackt und sie wneiger strom braucht, dann wäre ein renaming ok, aber so nicht. ES REICHT NVIDIA!
Wenn 300 = wieder reinfall, dann hallo ATI!
greez
PS: allen einen guten start ins 2010!!!
Zuletzt bearbeitet:
Der GT215 hat immer noch keinen DP Support. Fermi wird das gleiche Op Schema haben, was ATI schon seit dem R600 hat, also MUL+ADD pro Streamprozessor, was in der Praxis wohl einfach effektiver ist. Bezüglich AA hinkt nVidia immer noch etwas hinterher, besonders was den Leistungsverlust betrifft, speziell bei 8x MSAA. Usw. Es gäbe genug Gründe für nVidia, auch an den alten Chips etwas zu machen. Schon seltsam, wie stark sich der G80 Mythos hält. So gut, wie einige immer wieder behaupten, war der G80 letztendlich auch nicht.LuXon schrieb:nVidia musste auch nicht so gravierende Änderungen machen, da die Architektur zu dieser Zeit immer noch gut war. Warum sollte man etwas ändern, was dem Konkurrenzprodukt immer noch überlegen war?
Wieso sollte 4xAA sinniger sein? Wenn die Auflösung gross genug ist, reicht auch 2xAA oder gar kein AA. Und wenn genügend FPS vorhanden sind, kannst du auch 8xAA oder mehr nutzen. So eine Behauptung ist genauso pauschal unsinnig wie zu sagen, 1680x1050 ist sinniger als 1920x1200. Es hängt doch letztendlich vom jeweiligen System ab. Und mit einer Radeon hast du nach oben eben mehr Reserven.Schaffe89 schrieb:Nvidia liegt mit dem sinnigeren 4xAA jedoch vorne. 8xAA intressiert keinen Menschen.
Schaffe89
Banned
- Registriert
- Sep. 2008
- Beiträge
- 7.933
Vergleiche mal 4xAA mit 8xAA. Die Qualität des Bildes wird sogut wie gar nicht verbessert.
Deswegen ist 4xAA sinniger, da 8xAA das Bild nicht spürbar mehr glättet.
Zweitens man bei 4xMSAA mehr FPS hat. Und die Ati´s skalieren mit 4xAA nicht so gut.
Wenn die Performance ausreicht, kann man sicherlich 8xAA hinzuschalten. Da wäre aber AAA (was weniger Leistung kostet) oder TAA oder SSAA/SGSSAA sinvoller. Natürlich wenn die Leistung reicht.^^
Vor allem ist 4xAA in Verbindung mit AAA oder TAA (Nvidia) sinnvoller als reines 8xAA.
es ist sogar schwer 4xAA von 8xAA auf den ersten Blick zu unterscheiden. Da muss man erstmal zwischen den beiden Bildern möglichst schnell hin und herswitchen und evtl noch vergrößern.^^
Deswegen ist 4xAA sinniger, da 8xAA das Bild nicht spürbar mehr glättet.
Zweitens man bei 4xMSAA mehr FPS hat. Und die Ati´s skalieren mit 4xAA nicht so gut.
Wenn die Performance ausreicht, kann man sicherlich 8xAA hinzuschalten. Da wäre aber AAA (was weniger Leistung kostet) oder TAA oder SSAA/SGSSAA sinvoller. Natürlich wenn die Leistung reicht.^^
Vor allem ist 4xAA in Verbindung mit AAA oder TAA (Nvidia) sinnvoller als reines 8xAA.
es ist sogar schwer 4xAA von 8xAA auf den ersten Blick zu unterscheiden. Da muss man erstmal zwischen den beiden Bildern möglichst schnell hin und herswitchen und evtl noch vergrößern.^^
Zuletzt bearbeitet:
Wie ich schon sagte, das hängt von den Settings ab. Bei 1920x1200 sind Unterschiede sicherlich schwierig auszumachen, bei 1024x768 hingegen schon eher. Wenn die Auflösung gross genug ist, wirst du auch zwischen 2xAA und 4xAA kaum Unterschiede sehen.Schaffe89 schrieb:Vergleiche mal 4xAA mit 8xAA. Die Qualität des Bildes wird sogut wie gar nicht verbessert.
Ausserdem frage ich mich, wie du darauf kommst, dass ATI bei 4xAA schlechter skalieren würde. Wenn man sich zB mal die 1680x1050 Ergebnisse bei CB anschaut und Ausreisser raus nimmt, wie Batman AA oder Riddick AODA, dann ist die Skalierung von 1xAA/1xAF auf 4xAA/16AF zwischen ATI und nVidia innerhalb der Messtoleranz. Zumal man hier auch nicht genau sagen kann, was auf AF abfällt. Der Unterschied von 4xAA/16xAF auf 8xAA/16xAF hingegen fällt mit etwa 10% klar zugunsten von ATI aus. Je höher die Quali Settings, umso schlechter skalieren die GeForces gegenüber den Radeons.
Zuletzt bearbeitet:
- Registriert
- Feb. 2009
- Beiträge
- 679
@Jester: Extra nochmal für dich (nicht böse sein)
Die Chips sind nicht Alt, sondern sind erst vor paar Wochen/Monaten rausgekommen. Das mit dem Umbennenen stimmt allerdings. Da bin ich auch enttäuscht.
Ich bin mir allerdings ziemlich sicher, dass Fermi im Sommer draussen ist und kleinere Ableger schnell kommen werden.
Alle Angaben natürlich ohne Gewähr^^
MfG
LuXon
Die Chips sind nicht Alt, sondern sind erst vor paar Wochen/Monaten rausgekommen. Das mit dem Umbennenen stimmt allerdings. Da bin ich auch enttäuscht.
Ich bin mir allerdings ziemlich sicher, dass Fermi im Sommer draussen ist und kleinere Ableger schnell kommen werden.
Alle Angaben natürlich ohne Gewähr^^
MfG
LuXon
united3000
Lt. Junior Grade
- Registriert
- Jan. 2009
- Beiträge
- 362
gruffi schrieb:Der GT215 hat immer noch keinen DP Support. Fermi wird das gleiche Op Schema haben, was ATI schon seit dem R600 hat, also MUL+ADD pro Streamprozessor, was in der Praxis wohl einfach effektiver ist. Bezüglich AA hinkt nVidia immer noch etwas hinterher, besonders was den Leistungsverlust betrifft, speziell bei 8x MSAA. Usw. Es gäbe genug Gründe für nVidia, auch an den alten Chips etwas zu machen. Schon seltsam, wie stark sich der G80 Mythos hält. So gut, wie einige immer wieder behaupten, war der G80 letztendlich auch nicht.
1.: Warum sollte der GT215 keinen Dp Support haben? Die G310 mit GT218, die es bei HP gibt, hat einen DP Ausgang, also wird wohl ein Controller vorhanden sein.
2.: ist seit der GTX200 Serie auch FMA möglich, wurde auch bei der HD5000 Serie eingeführt.
3.: Ja, Ati hat weniger Leistungsverlust von 4xAA auf 8xAA
4.: Aber die Architektur hat (oder macht sich noch immer) gut, auch wenn es ziemlich überarbeitet wurde.
Wir sprechen von Double Precision ALUs, nicht DisplayPort. Ist für Spiele zwar relativ uninteressant, für GPGPU hingegen nicht.united3000 schrieb:1.: Warum sollte der GT215 keinen Dp Support haben? Die G310 mit GT218, die es bei HP gibt, hat einen DP Ausgang, also wird wohl ein Controller vorhanden sein.
DisplayPort hat die GT 240 offiziell übrigens auch nicht. Da muss man also schon auf Custom Designs der Board Partner hoffen.
Das Thema waren die G80/G92 Abkömmlinge, wie eben GT215, welcher in der GT 240 verbaut ist, und nichts anderes.united3000 schrieb:2.: ist seit der GTX200 Serie auch FMA möglich, wurde auch bei der HD5000 Serie eingeführt.
mellon80
Ensign
- Registriert
- Dez. 2008
- Beiträge
- 214
Nivida wird immer mehr zur witzfigur!
Wer will den Dreck haben der auf alter Technik von vor 3 Jahren basiert?
Außen hui innen pfui sag ich da nur........
Das ist als ob ich über nen alten Käfer eine Porschekarosse rüberziehe und mir das noch teuer bezahlen lasse....
Das stößt bei vielen alten Kunden sauer auf und schmeckt wie aufgewärmter kaffe....sorry Nvidia so geht das nicht!
Wer will den Dreck haben der auf alter Technik von vor 3 Jahren basiert?
Außen hui innen pfui sag ich da nur........
Das ist als ob ich über nen alten Käfer eine Porschekarosse rüberziehe und mir das noch teuer bezahlen lasse....
Das stößt bei vielen alten Kunden sauer auf und schmeckt wie aufgewärmter kaffe....sorry Nvidia so geht das nicht!