News Neue mobile Grafiklösungen von Nvidia in Kürze

Kennt jemand von euch denn die genauen Daten der neuen Chips? Solange nur ihre Modelbezeichnungen bakannt sind, bringt auch eine Tabelle nichts, da man sie niergens einordnen kann.

Wieso regen sich dann alle gleich so auf?
 
lazsniper schrieb:
ai ai ai da ist mal wieder einer sehr stark eingeschränkt im blickwinkel . es gibt auch leute für die sich ein rechner nicht lohnt zum zocken und ein notebook hermuss (dauer-reisende) , oder dauer-lanparty gänger (privat und nicht privat) .

ich begrüße die gtx280m persönlich sehr ! endlich mal anständige leistung . am besten noch mit sli in nem schönen 8 kg notebook ~ perfekt :evillol:

Pff die gtx280m hat doch mit Sicherheit so eine Leistung wie eine 3 Jahre alte 8800 Desktop, wenn überhaupt.
Lol Dauerreisende... gerade die werden sich dann mit einem 5kg Notebook mit grottiger Akkuleistung abmühen?? Total vorbei würde ich sagen...
 
Also ich war damals skeptisch, ob es sich rechnet ein Laptop mit einer Highend Graka zu kaufen, aber wenn ich diese schleppende Entwicklung im Notebookmarkt so ansehe, weiß ich, dass ich die richtige Entscheidung getroffen habe. Und solange Nvidia nicht vom G92/94 wegkommt wird sich da auch nicht viel ändern.
 
Boar ich bin nun echt kein Ahnungsloser was Hardwarezeugs betrifft, aber bei Nvidias Zahlenchaos verliere sogar ich total den Überblick. Ich habe keine Ahnung welches Äquivalent sich hinter den Chipnamen nun verbirgt. Wäre super wenn CB da mal eine Übersicht anfertigen könnte, damit man weiß woran man ist.

Wenn sogar ein GT280M usw alles nur alte G92 Chips sind, dann sollte in der Medienwelt viel mehr Aufklärung betrieben werden, sowas ist eigentlich schon Irreführung.
 
Zuletzt bearbeitet:
MixMasterMike
Früher wurden Tests über Dinge wie Performance oder BQ angefertigt.
Das dies heutzutage nicht mehr der Fall ist, kann man nicht Nvidia anlasten.
Lieber jeden Treiber auf 1%ige FPSunterschiede testen oder 3x 4870 X2 oder 8x 4850 oder 0x 9600 GSO 512 Tests den Massen präsentieren.

Das im Mobilebereich die Leistung geringer als im Desktop ist, ist nicht neu, die GTX 280M ist etwas gemeiner als sonst.
Jedoch eröffnet sich die Frage: Was hat dies in diesem Fred zu suchen, hier gehts u.a. bereits um einen Nachfolger/Weiterentwicklung der GTX 280M.


Wozu willst du den Chipnamen wissen? Keine Sau kann daraus die Performance oder die Leistungaufnahme ablesen, selbst wenn er weiß wie viele Einheiten ein etsprechender GT21x beinhaltet.

Im April hieß es noch so: http://vr-zone.com/articles/nvidia-preparing-40nm-geforce-gt-240m--g210m/6954.html?doc=6954
GTS 2xx ----------> GT214
GT 240M -> GT215
G210M ---> GT216
? ----------> GT218

Alles klar?
Nein, gut dann wird CB schon erklären welche GPU hier arglistig geshrinkt wurde und der Weg ist frei für den Bash der GT21x GPUs, als bösartige Nachfolger der gemeinen G9x.

Realsmasher schrieb:
Immerhin mobile 6 Karten von einem Chipdesign. Hinzu kommen weitere 7 (wenn ich mich nicht verzählt) desktop Karten von.
13 verschiedene Namen für größtenteils minimale Änderungen. Das dürfte der Rekord sind mittlerweile.
Hinzu kommen jetzt die neuen. Mal sehen ob wir die 20 noch knacken.
Lustig, gelle?
Du hast vergessen zu erwähnen, was sich sonst noch ändert und das mit hoher Sicherheit der heilige Gral 40nm Einzug erhält.
Die Wörter "EOL", "verdrängt", "ersetzt" sind dir so geläufig, das du auf "20" kommst, respekt.
Leider hast du vergessen zu erklären, wo für den Kunden der Nachteil einer weit skalierten Produktpalette mit einem G92 als GPU liegt.

Um dich mal aufzumuntern:
8x Geforce 100/200M: G102M, G105M, G110M, GT 130M, GTS 150M, GTS 160M, GTX 260M, GTX 280M
9x Mobility Radeon HD4000: 4330, 4530, 4570, 4650, 4670, 4830, 4850, 4860, 4870
 
Du hast vergessen zu erwähnen, was sich sonst noch ändert und das mit hoher Sicherheit der heilige Gral 40nm Einzug erhält.

bleibt abzuwarten, der 65-55nm schritt hat auch nicht das gehalten was er versprochen hat.

zudem sind die karten garnicht EOL, sie heißen nur anders und sind mit etwas glück ein wenig näher am originalchip dran.(mehr recheneinheiten aktiviert, mehr takt)


Der Nachteil das Kunden ist der mangelnde Überblick.

Weiß du z.b. auf anhieb worauf etwa eine 9800M gts basiert ?

Ist nämlich kein g92 wie 9800M gt und 9800M gtx und hier fängt das ganze schon an, dabei ist die generation ja praktisch nur an der 9 umbenannt.

Bei den 1xx/2xx steigt kein Schwein mehr durch, insbesondere würden aber die wenigsten vermuten das sie dort techik finden die schon 2 jahre vorher als 8800M zu finden war.


Dein Vergleich hinkt auch völlig, denn es ging mir nicht um Karten pro Generation sondern um Karten je Chip.


Natürlich kann man argumentieren das die dahinter steckende Technik nicht relevant ist, da die leistung ja dank Beschneidung und Taktkürzung massiv verringert wurde, Kundenfreundlich ist das trotzdem nicht.

Bei sowas erinnere ich mich etwa mit Grauen an die GF4 MX zurück.(oder von mir aus auch an die x2300, auch wenn die eh keiner gekauft hat)

Nur gut das in der 100/200 Reihe nicht noch Karten verschiedener DX-Versionen zu finden sind. Wobei man nie weiß was noch kommt.
 
bleibt abzuwarten, der 65-55nm schritt hat auch nicht das gehalten was er versprochen hat.
Darum gehts nicht, ich kann mich im übrigen nicht erinnern, das der 65nm-55nm Shrink etwas versprochen hat.

zudem sind die karten garnicht EOL, sie heißen nur anders und sind mit etwas glück ein wenig näher am originalchip dran.(mehr recheneinheiten aktiviert, mehr takt)
1. Wer sagt das?
2. Karten können nicht "näher am Originalchip" sein. Wenn du Originalkarte meinst, was ist die Originalkarte? Eine 8800 GT? Eine GTS 250 1024?

Bei den 1xx/2xx steigt kein Schwein mehr durch, insbesondere würden aber die wenigsten vermuten das sie dort techik finden die schon 2 jahre vorher als 8800M zu finden war.
Ich komme auf 3/4 Jahre, von Ende 2007 bis Mitte 2008.
Mir als Käufer ist es auch egal, wie alt die Technik ist, solange sie konkurrenzfähig ist, bzw in dem Fall in einem 3/4 Jahr mal eben ein gewaltigen Sprung nach vorne gemacht hat, so wie bei einem 1000er Wechsel üblich.

Weiß du z.b. auf anhieb worauf etwa eine 9800M gts basiert ?
Ja das ist mir bekannt, GT und GTS wurden dort leider vertauscht.
Obwohl es relativ sinnfrei ist zu wissen worauf diese Karte "basiert".
Denn alleine dadurch kann ich fast keine Ausagen zur Leistung und null zu anderen Dingen machen.

Da kann ich gleich den Namen zur Leistungseinteilung nehmen, ist x-mal leichter.
220 ist mehr als 210, logisch. GTS ist mehr als GT.

Mobile = Desktop -30-40%, wie gehabt scheisse, aber leider üblich, nicht nur hier auch wenns nur hier weils eine NV News ist erwähnt wird.

Kundenfreundlich ist das trotzdem nicht.
Verstehe ich nach wie vor nicht.
Bei einem von außen absolut vergleichbaren Produkt ist es mir sowas von scheissegal ob ein G92 oder ein G98 verbaut ist.
 
Zuletzt bearbeitet:
man man was man hier zulesen bekommt ist ja schauderhaft. Immer das gelaber .... Bringt ja weniger wie die Desktop variante.

Könnt ja so einen schwachsinn wie das Cyber System i17 kaufen und wer weiß vieleicht bringt ja alienware in den nächsten Tagen ein "Book" mit einer Desktop GTX 280+ i7.... hrhr das braucht die Welt in Book mit 300W Abwärme.
 
Unyu schrieb:
Wenn du Originalkarte meinst, was ist die Originalkarte? Eine 8800 GT? Eine GTS 250 1024?

GTS war schon gar nicht so falsch. Man streiche 250 setzte die Zahl 8800 davor.

Unyu schrieb:
Obwohl es relativ sinnfrei ist zu wissen worauf diese Karte "basiert".

Tatsächlich? Wenn man mir sagt, dass Karte X auf Chip Z basiert, kann ich doch von einem gewissen Grundpotential ausgehen, oder nicht? Schließlich geht man ja nicht hin und kastriert einen G92 via Lasercut auf 64 Shadereinheiten. Für sowas steht dann ein G94 zur Verfügung.

Im Grunde genommen krankt der gesamte Mobile-Graka-Markt an sehr irreführenden Bezeichnungen. Das trifft auf die Grünen wie auf die Roten zu.
Das was im Mobile-Segment "High-End" impliziert, ist im Desktop bestenfalls/ meistens "Performance".

Ein paar Bleistifte:

Mobility HD4870 GDDR3 (Mobile) -> RV770 mit 160SE <- HD4850 (Desktop)
9800M GT (Mobile) -> G92 mit 96SE <- 8800GS, 9600GSO (Desktop)
Mobility HD4860 GDDR3 (Mobile) -> RV740 mit 128SE <- HD4750 (Desktop)
GTX280M (Mobile) -> G92b mit 128SE <- 8800GTS, 9800GTX, GTS250 (Desktop)
 
Zuletzt bearbeitet:
Schließlich geht man ja nicht hin und kastriert einen G92 via Lasercut auf 64 Shadereinheiten

leider doch :(

die 8800M gts hat nur den halben g92 aktiv.



die angabe von 30-40% für beide hersteller ist zudem schlichtweg blödsinnig.


bsp :

die eben erwähnte liegt sogar 50% unter der gleichnamigen Desktop karte(halb so schnell)

auf der anderen seite(werte mittels shader*takt bzw speicherinterface*takt ermittelt) :

4870mobility : 26% unter gleichnamiger deskopkarte
4850mobility : 20% unter gleichnamiger deskopkarte
4670mobility : 10% unter gleichnamiger deskopkarte
4650mobility : 8% unter gleichnamiger deskopkarte
4570mobility : 13% schneller als 4550 desktop
4530mobility : 16% langsamer als 4550 desktop


gerne kann mal jemand eine vergleichbare tabelle für die nvidia karten aufstellen. dort wird man jedoch wirklich die erwähnten 30-40% von unyu erhalten.

jedoch macht es dort nicht halt, siehe 50% bei der 8800 gts oder .

auch midrange ist bei nvidia nicht gefeit.

die 9600M gt etwa ist satte 62% langsamer als die gleichnamige Desktop karte, bzw die desktop 9600gt 2,5mal so schnell !



eigentlich wollte ich ja nicht wieder mit sowas anfangen, aber wenn jemand meint die Verarsche wäre auf beiden seiten gleich groß, dann ist das schlichtweg falsch.

speziell im midrange bis performance segment hat man bei Ati schon seit ich das beobachte (ab ~9700pro) immer nahezu die desktop performance geliefert.

10-20% sind denke ich im vertretbaren rahmen, das merkt man häufig nichtmal.

Für eine mobile Karte aber den namen einer desktop karte zu nutzen welche 250% der Leistung abliefert halte ich nicht für akzeptabel. das ist schlichtweg reine kundenverarsche.


Man muss das mal in anderen dimensionen vergleichen. Selbst wenn Intel den billigsten Pentium-dualcore(E2140 mit 2*1,6ghz) als E8600(2*3,33ghz) verkaufen würde wäre das immernoch weniger Betrug am Kunden.
 
Realsmasher schrieb:

Genau, deswegen ist eine 9800M(welche noch nicht einmal die Performance einer 9600GS Desktop hat) auch genauso schnell wie eine eine HD4870M.

Liegen mit Sicherheit auch 100% Leistung dazwischen(zw. 4870M und normaler) und das bei Standart 17 Zoll Auflösung(ja kein Full HD und ohne Quali Einstellungen). Setz bitte mal deine ATI Brille ab, im mobilen Bereich nehmen die sich beide nichts.
 
eine 9800M ? gt ? gts ? gtx ? oder doch die 280M gtx ?
ja was denn eigentlich ?

allerdings muss ich dich in der hinsicht enttäuschen.

Die 4870M ist etwa auf augenhöhe mit der 4850 desktop, wenn nicht darüber(12% weniger chiptakt, 78% mehr speicherbandbreite), welche wiederrum mit der 9800gtx desktop karte gleichauf ist.

das ist ein g92 mit vollen 128 shadern, 738mhz chip- und 1100mhz speichertakt.

Diese Leistung weißt jedoch nichtmal die 280M gtx aus, die ganzen 9800M varianten sind noch viel schwächer.



Ich bin mir sicher du beziehst dich wieder auf die 3dmark werte von notebookcheck, von denen jeeder vernünftig denkende Mensch längst weiß das sie nicht stimmen.

bsp : die 4870M ist nach diesen werten langsamer als die 4850M, was schlichtweg nonsense ist.


hier mal echte vergleiche :

4870M deutlich schneller als 9800M gtx trotz höherer auflösung : http://reviews.cnet.com/laptops/asus-w90vp-x1/4505-3121_7-33573799.html?tag=mncol;lst

hier genauso : http://hothardware.com/Articles/Asus-W90Vp-Gaming-Notebook-Evaluation/?page=8

http://hothardware.com/Articles/Asus-W90Vp-Gaming-Notebook-Evaluation/?page=9


Und die 4870M ist schon ein Negativbeispiel. Die ist immerhin bis zu 26% langsamer als die Desktop 4870.

Bei den allermeisten mobilen Ati-Karten ist die Differenz viel kleiner.


aber bitte, jeder soll das glauben was er für richtig hält.

Wenn man darüber jedoch diskutieren will, dann mit Fakten und nicht leeren Aussagen.
 
Kann das sein, dass Deine Links zu einem Notebook mit einer 4870 X2 mobility führen?
 
du hast recht, ich bin entsetzt.

bin einfach den links von notebookcheck gefolgt in denen es heißt

Notebooktests mit ATI Mobility Radeon HD 4870 Grafikkarte

ohne genau zu lesen das da twin bzw dual steht.

Sorry, mea culpa.


allerdings schockiert mich das ein wenig.

ich meine, 11k 3dmarks für 2 * rv870 mit vollen 800shadersn und 550mhz takt ?


selbst das msi mit einer 4850M schafft ja schon 10k Punkte, mit turboknopf sogar 10,7k : http://www.notebookjournal.de/tests/msi-gt725-9547vhp-815



hier zeigt sich das bereits die 4850M die 9800gtx schlägt.

Deswegen nimmt es mir hoffentlich niemand übel das ich dort eine einzelkarte erwartet habe und aufgrund des ergebnisses auch weiterhin glaube das nur eine aktiv war.
 
11000 Punkte mit einem Quad @schlappe 2GHz könnte ich mir schon vorstellen. Die Leistung pro Kern wäre da ein wenig mager. Ein Dualcore mit 2,53 oder 2,66Ghz bzw. gar 3GHz dürfte bessere Ergebnisse bringen, speziell und insbesondere im SM 2.0-Test.
 
Zuletzt bearbeitet:
denkst du wirklich das 2*4870M mit einem quad, der übrigens die Punktzahl bei gleichem takt ggü einem dualcore enorm anhebt, nur marginal vor 1*4850M liegen ?

ich meine, eigentlich gehts mir ja garnicht um cf oder sli, sondern um die Frage wie die Punktzahl mit einer 4870M aussehen würde.

Und hier kann ich mir beim besten willen nicht vorstellen das die 10k Punkte einer 4850M unterschritten werden, eher liegen sie höher aufgrund von :
- mehr chiptakt
- doppelter speichergröße
- fast doppelter Speicherbandbreite


letztendlich ist das aber alles nur Gerede, denn books mit nur einer 4870 existieren garnicht soweit ich das überblicken kann und schon die 4850 kann mehr als nur konkurrieren mit allen 9800M Lösungen.



Die Frage war ja ursprünglich ob die "neuen" Grafiklösungen in der News wirklich neu sind oder wieder nur über die Tatsache hinwegtäuschen sollen das dem Kunden hier peu à peu nach 2 Jahren endlich ein (teilweise) voller G92 verkauft wird, der zu allem überfluss immernoch stark untertaktet ist und sich als G200 tarnt.


Bzw im midrange bereich der g84, eigentlich noch viel schlimmer :

beispielsweise die "neue" 230M, welche eigentlich eine 130M ist, welche eigentlich eine 9600M gt ist, ursprünglich mal 8600M gt.

Aber selbst nach dem vierten Namen für ein und denselben chip mit minimalen taktänderungen hat man noch nichtmal die Leistung des G84 aus dem April 2007 erreicht und das obwohl der g84 selbst damals schon eine Krücke war.

Und sowas verkauft man heute als "neu" (siehe news, da steht NEU !).

Wenn das nicht Verarsche am Kunden ist weiß ichs auch nicht mehr.
 
denkst du wirklich das 2*4870M mit einem quad, der übrigens die Punktzahl bei gleichem takt ggü einem dualcore enorm anhebt, nur marginal vor 1*4850M liegen ?

Die ersten beiden 3dmark06-Tests (der SM 2.0-Score) skalieren extrem mit der Leistung pro Kern, nicht mit der Anzahl der Kerne. Deshalb konnte man auch etwa mit einem Crossfire-System und einem Phenom I keine anständigen 3dmark06-Ergebnisse einfahren ...^^ Ist die Leistung pro Kern zu schwach, limitiert die CPU enorm und reißt darin die FPS in den Tests und damit Gesamtpunktzahl in den Keller. Der Quad an sich reißt "nur" etwas im zweiten CPU-Test und durch das Hochziehen des CPU-Scores.

Aber abgesehen davon stimme ich Dir zu.
 
Zurück
Oben