Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Neue mobile Grafiklösungen von Nvidia in Kürze
- Ersteller Volker
- Erstellt am
- Zur News: Neue mobile Grafiklösungen von Nvidia in Kürze
meiermanni
Lieutenant
- Registriert
- Nov. 2004
- Beiträge
- 846
lazsniper schrieb:ai ai ai da ist mal wieder einer sehr stark eingeschränkt im blickwinkel . es gibt auch leute für die sich ein rechner nicht lohnt zum zocken und ein notebook hermuss (dauer-reisende) , oder dauer-lanparty gänger (privat und nicht privat) .
ich begrüße die gtx280m persönlich sehr ! endlich mal anständige leistung . am besten noch mit sli in nem schönen 8 kg notebook ~ perfekt
Pff die gtx280m hat doch mit Sicherheit so eine Leistung wie eine 3 Jahre alte 8800 Desktop, wenn überhaupt.
Lol Dauerreisende... gerade die werden sich dann mit einem 5kg Notebook mit grottiger Akkuleistung abmühen?? Total vorbei würde ich sagen...
Also ich war damals skeptisch, ob es sich rechnet ein Laptop mit einer Highend Graka zu kaufen, aber wenn ich diese schleppende Entwicklung im Notebookmarkt so ansehe, weiß ich, dass ich die richtige Entscheidung getroffen habe. Und solange Nvidia nicht vom G92/94 wegkommt wird sich da auch nicht viel ändern.
M
MixMasterMike
Gast
Boar ich bin nun echt kein Ahnungsloser was Hardwarezeugs betrifft, aber bei Nvidias Zahlenchaos verliere sogar ich total den Überblick. Ich habe keine Ahnung welches Äquivalent sich hinter den Chipnamen nun verbirgt. Wäre super wenn CB da mal eine Übersicht anfertigen könnte, damit man weiß woran man ist.
Wenn sogar ein GT280M usw alles nur alte G92 Chips sind, dann sollte in der Medienwelt viel mehr Aufklärung betrieben werden, sowas ist eigentlich schon Irreführung.
Wenn sogar ein GT280M usw alles nur alte G92 Chips sind, dann sollte in der Medienwelt viel mehr Aufklärung betrieben werden, sowas ist eigentlich schon Irreführung.
Zuletzt bearbeitet:
Unyu
Banned
- Registriert
- Okt. 2004
- Beiträge
- 6.891
MixMasterMike
Früher wurden Tests über Dinge wie Performance oder BQ angefertigt.
Das dies heutzutage nicht mehr der Fall ist, kann man nicht Nvidia anlasten.
Lieber jeden Treiber auf 1%ige FPSunterschiede testen oder 3x 4870 X2 oder 8x 4850 oder 0x 9600 GSO 512 Tests den Massen präsentieren.
Das im Mobilebereich die Leistung geringer als im Desktop ist, ist nicht neu, die GTX 280M ist etwas gemeiner als sonst.
Jedoch eröffnet sich die Frage: Was hat dies in diesem Fred zu suchen, hier gehts u.a. bereits um einen Nachfolger/Weiterentwicklung der GTX 280M.
Wozu willst du den Chipnamen wissen? Keine Sau kann daraus die Performance oder die Leistungaufnahme ablesen, selbst wenn er weiß wie viele Einheiten ein etsprechender GT21x beinhaltet.
Im April hieß es noch so: http://vr-zone.com/articles/nvidia-preparing-40nm-geforce-gt-240m--g210m/6954.html?doc=6954
GTS 2xx ----------> GT214
GT 240M -> GT215
G210M ---> GT216
? ----------> GT218
Alles klar?
Nein, gut dann wird CB schon erklären welche GPU hier arglistig geshrinkt wurde und der Weg ist frei für den Bash der GT21x GPUs, als bösartige Nachfolger der gemeinen G9x.
Du hast vergessen zu erwähnen, was sich sonst noch ändert und das mit hoher Sicherheit der heilige Gral 40nm Einzug erhält.
Die Wörter "EOL", "verdrängt", "ersetzt" sind dir so geläufig, das du auf "20" kommst, respekt.
Leider hast du vergessen zu erklären, wo für den Kunden der Nachteil einer weit skalierten Produktpalette mit einem G92 als GPU liegt.
Um dich mal aufzumuntern:
8x Geforce 100/200M: G102M, G105M, G110M, GT 130M, GTS 150M, GTS 160M, GTX 260M, GTX 280M
9x Mobility Radeon HD4000: 4330, 4530, 4570, 4650, 4670, 4830, 4850, 4860, 4870
Früher wurden Tests über Dinge wie Performance oder BQ angefertigt.
Das dies heutzutage nicht mehr der Fall ist, kann man nicht Nvidia anlasten.
Lieber jeden Treiber auf 1%ige FPSunterschiede testen oder 3x 4870 X2 oder 8x 4850 oder 0x 9600 GSO 512 Tests den Massen präsentieren.
Das im Mobilebereich die Leistung geringer als im Desktop ist, ist nicht neu, die GTX 280M ist etwas gemeiner als sonst.
Jedoch eröffnet sich die Frage: Was hat dies in diesem Fred zu suchen, hier gehts u.a. bereits um einen Nachfolger/Weiterentwicklung der GTX 280M.
Wozu willst du den Chipnamen wissen? Keine Sau kann daraus die Performance oder die Leistungaufnahme ablesen, selbst wenn er weiß wie viele Einheiten ein etsprechender GT21x beinhaltet.
Im April hieß es noch so: http://vr-zone.com/articles/nvidia-preparing-40nm-geforce-gt-240m--g210m/6954.html?doc=6954
GTS 2xx ----------> GT214
GT 240M -> GT215
G210M ---> GT216
? ----------> GT218
Alles klar?
Nein, gut dann wird CB schon erklären welche GPU hier arglistig geshrinkt wurde und der Weg ist frei für den Bash der GT21x GPUs, als bösartige Nachfolger der gemeinen G9x.
Lustig, gelle?Realsmasher schrieb:Immerhin mobile 6 Karten von einem Chipdesign. Hinzu kommen weitere 7 (wenn ich mich nicht verzählt) desktop Karten von.
13 verschiedene Namen für größtenteils minimale Änderungen. Das dürfte der Rekord sind mittlerweile.
Hinzu kommen jetzt die neuen. Mal sehen ob wir die 20 noch knacken.
Du hast vergessen zu erwähnen, was sich sonst noch ändert und das mit hoher Sicherheit der heilige Gral 40nm Einzug erhält.
Die Wörter "EOL", "verdrängt", "ersetzt" sind dir so geläufig, das du auf "20" kommst, respekt.
Leider hast du vergessen zu erklären, wo für den Kunden der Nachteil einer weit skalierten Produktpalette mit einem G92 als GPU liegt.
Um dich mal aufzumuntern:
8x Geforce 100/200M: G102M, G105M, G110M, GT 130M, GTS 150M, GTS 160M, GTX 260M, GTX 280M
9x Mobility Radeon HD4000: 4330, 4530, 4570, 4650, 4670, 4830, 4850, 4860, 4870
Realsmasher
Captain
- Registriert
- Juli 2005
- Beiträge
- 4.046
Du hast vergessen zu erwähnen, was sich sonst noch ändert und das mit hoher Sicherheit der heilige Gral 40nm Einzug erhält.
bleibt abzuwarten, der 65-55nm schritt hat auch nicht das gehalten was er versprochen hat.
zudem sind die karten garnicht EOL, sie heißen nur anders und sind mit etwas glück ein wenig näher am originalchip dran.(mehr recheneinheiten aktiviert, mehr takt)
Der Nachteil das Kunden ist der mangelnde Überblick.
Weiß du z.b. auf anhieb worauf etwa eine 9800M gts basiert ?
Ist nämlich kein g92 wie 9800M gt und 9800M gtx und hier fängt das ganze schon an, dabei ist die generation ja praktisch nur an der 9 umbenannt.
Bei den 1xx/2xx steigt kein Schwein mehr durch, insbesondere würden aber die wenigsten vermuten das sie dort techik finden die schon 2 jahre vorher als 8800M zu finden war.
Dein Vergleich hinkt auch völlig, denn es ging mir nicht um Karten pro Generation sondern um Karten je Chip.
Natürlich kann man argumentieren das die dahinter steckende Technik nicht relevant ist, da die leistung ja dank Beschneidung und Taktkürzung massiv verringert wurde, Kundenfreundlich ist das trotzdem nicht.
Bei sowas erinnere ich mich etwa mit Grauen an die GF4 MX zurück.(oder von mir aus auch an die x2300, auch wenn die eh keiner gekauft hat)
Nur gut das in der 100/200 Reihe nicht noch Karten verschiedener DX-Versionen zu finden sind. Wobei man nie weiß was noch kommt.
Unyu
Banned
- Registriert
- Okt. 2004
- Beiträge
- 6.891
Darum gehts nicht, ich kann mich im übrigen nicht erinnern, das der 65nm-55nm Shrink etwas versprochen hat.bleibt abzuwarten, der 65-55nm schritt hat auch nicht das gehalten was er versprochen hat.
1. Wer sagt das?zudem sind die karten garnicht EOL, sie heißen nur anders und sind mit etwas glück ein wenig näher am originalchip dran.(mehr recheneinheiten aktiviert, mehr takt)
2. Karten können nicht "näher am Originalchip" sein. Wenn du Originalkarte meinst, was ist die Originalkarte? Eine 8800 GT? Eine GTS 250 1024?
Ich komme auf 3/4 Jahre, von Ende 2007 bis Mitte 2008.Bei den 1xx/2xx steigt kein Schwein mehr durch, insbesondere würden aber die wenigsten vermuten das sie dort techik finden die schon 2 jahre vorher als 8800M zu finden war.
Mir als Käufer ist es auch egal, wie alt die Technik ist, solange sie konkurrenzfähig ist, bzw in dem Fall in einem 3/4 Jahr mal eben ein gewaltigen Sprung nach vorne gemacht hat, so wie bei einem 1000er Wechsel üblich.
Ja das ist mir bekannt, GT und GTS wurden dort leider vertauscht.Weiß du z.b. auf anhieb worauf etwa eine 9800M gts basiert ?
Obwohl es relativ sinnfrei ist zu wissen worauf diese Karte "basiert".
Denn alleine dadurch kann ich fast keine Ausagen zur Leistung und null zu anderen Dingen machen.
Da kann ich gleich den Namen zur Leistungseinteilung nehmen, ist x-mal leichter.
220 ist mehr als 210, logisch. GTS ist mehr als GT.
Mobile = Desktop -30-40%, wie gehabt scheisse, aber leider üblich, nicht nur hier auch wenns nur hier weils eine NV News ist erwähnt wird.
Verstehe ich nach wie vor nicht.Kundenfreundlich ist das trotzdem nicht.
Bei einem von außen absolut vergleichbaren Produkt ist es mir sowas von scheissegal ob ein G92 oder ein G98 verbaut ist.
Zuletzt bearbeitet:
xerox18
Commodore
- Registriert
- Feb. 2006
- Beiträge
- 4.135
man man was man hier zulesen bekommt ist ja schauderhaft. Immer das gelaber .... Bringt ja weniger wie die Desktop variante.
Könnt ja so einen schwachsinn wie das Cyber System i17 kaufen und wer weiß vieleicht bringt ja alienware in den nächsten Tagen ein "Book" mit einer Desktop GTX 280+ i7.... hrhr das braucht die Welt in Book mit 300W Abwärme.
Könnt ja so einen schwachsinn wie das Cyber System i17 kaufen und wer weiß vieleicht bringt ja alienware in den nächsten Tagen ein "Book" mit einer Desktop GTX 280+ i7.... hrhr das braucht die Welt in Book mit 300W Abwärme.
Iron Grey
Lt. Junior Grade
- Registriert
- Juni 2006
- Beiträge
- 450
Unyu schrieb:Wenn du Originalkarte meinst, was ist die Originalkarte? Eine 8800 GT? Eine GTS 250 1024?
GTS war schon gar nicht so falsch. Man streiche 250 setzte die Zahl 8800 davor.
Unyu schrieb:Obwohl es relativ sinnfrei ist zu wissen worauf diese Karte "basiert".
Tatsächlich? Wenn man mir sagt, dass Karte X auf Chip Z basiert, kann ich doch von einem gewissen Grundpotential ausgehen, oder nicht? Schließlich geht man ja nicht hin und kastriert einen G92 via Lasercut auf 64 Shadereinheiten. Für sowas steht dann ein G94 zur Verfügung.
Im Grunde genommen krankt der gesamte Mobile-Graka-Markt an sehr irreführenden Bezeichnungen. Das trifft auf die Grünen wie auf die Roten zu.
Das was im Mobile-Segment "High-End" impliziert, ist im Desktop bestenfalls/ meistens "Performance".
Ein paar Bleistifte:
Mobility HD4870 GDDR3 (Mobile) -> RV770 mit 160SE <- HD4850 (Desktop)
9800M GT (Mobile) -> G92 mit 96SE <- 8800GS, 9600GSO (Desktop)
Mobility HD4860 GDDR3 (Mobile) -> RV740 mit 128SE <- HD4750 (Desktop)
GTX280M (Mobile) -> G92b mit 128SE <- 8800GTS, 9800GTX, GTS250 (Desktop)
Zuletzt bearbeitet:
Realsmasher
Captain
- Registriert
- Juli 2005
- Beiträge
- 4.046
Schließlich geht man ja nicht hin und kastriert einen G92 via Lasercut auf 64 Shadereinheiten
leider doch
die 8800M gts hat nur den halben g92 aktiv.
die angabe von 30-40% für beide hersteller ist zudem schlichtweg blödsinnig.
bsp :
die eben erwähnte liegt sogar 50% unter der gleichnamigen Desktop karte(halb so schnell)
auf der anderen seite(werte mittels shader*takt bzw speicherinterface*takt ermittelt) :
4870mobility : 26% unter gleichnamiger deskopkarte
4850mobility : 20% unter gleichnamiger deskopkarte
4670mobility : 10% unter gleichnamiger deskopkarte
4650mobility : 8% unter gleichnamiger deskopkarte
4570mobility : 13% schneller als 4550 desktop
4530mobility : 16% langsamer als 4550 desktop
gerne kann mal jemand eine vergleichbare tabelle für die nvidia karten aufstellen. dort wird man jedoch wirklich die erwähnten 30-40% von unyu erhalten.
jedoch macht es dort nicht halt, siehe 50% bei der 8800 gts oder .
auch midrange ist bei nvidia nicht gefeit.
die 9600M gt etwa ist satte 62% langsamer als die gleichnamige Desktop karte, bzw die desktop 9600gt 2,5mal so schnell !
eigentlich wollte ich ja nicht wieder mit sowas anfangen, aber wenn jemand meint die Verarsche wäre auf beiden seiten gleich groß, dann ist das schlichtweg falsch.
speziell im midrange bis performance segment hat man bei Ati schon seit ich das beobachte (ab ~9700pro) immer nahezu die desktop performance geliefert.
10-20% sind denke ich im vertretbaren rahmen, das merkt man häufig nichtmal.
Für eine mobile Karte aber den namen einer desktop karte zu nutzen welche 250% der Leistung abliefert halte ich nicht für akzeptabel. das ist schlichtweg reine kundenverarsche.
Man muss das mal in anderen dimensionen vergleichen. Selbst wenn Intel den billigsten Pentium-dualcore(E2140 mit 2*1,6ghz) als E8600(2*3,33ghz) verkaufen würde wäre das immernoch weniger Betrug am Kunden.
meiermanni
Lieutenant
- Registriert
- Nov. 2004
- Beiträge
- 846
Realsmasher schrieb:
Genau, deswegen ist eine 9800M(welche noch nicht einmal die Performance einer 9600GS Desktop hat) auch genauso schnell wie eine eine HD4870M.
Liegen mit Sicherheit auch 100% Leistung dazwischen(zw. 4870M und normaler) und das bei Standart 17 Zoll Auflösung(ja kein Full HD und ohne Quali Einstellungen). Setz bitte mal deine ATI Brille ab, im mobilen Bereich nehmen die sich beide nichts.
Realsmasher
Captain
- Registriert
- Juli 2005
- Beiträge
- 4.046
eine 9800M ? gt ? gts ? gtx ? oder doch die 280M gtx ?
ja was denn eigentlich ?
allerdings muss ich dich in der hinsicht enttäuschen.
Die 4870M ist etwa auf augenhöhe mit der 4850 desktop, wenn nicht darüber(12% weniger chiptakt, 78% mehr speicherbandbreite), welche wiederrum mit der 9800gtx desktop karte gleichauf ist.
das ist ein g92 mit vollen 128 shadern, 738mhz chip- und 1100mhz speichertakt.
Diese Leistung weißt jedoch nichtmal die 280M gtx aus, die ganzen 9800M varianten sind noch viel schwächer.
Ich bin mir sicher du beziehst dich wieder auf die 3dmark werte von notebookcheck, von denen jeeder vernünftig denkende Mensch längst weiß das sie nicht stimmen.
bsp : die 4870M ist nach diesen werten langsamer als die 4850M, was schlichtweg nonsense ist.
hier mal echte vergleiche :
4870M deutlich schneller als 9800M gtx trotz höherer auflösung : http://reviews.cnet.com/laptops/asus-w90vp-x1/4505-3121_7-33573799.html?tag=mncol;lst
hier genauso : http://hothardware.com/Articles/Asus-W90Vp-Gaming-Notebook-Evaluation/?page=8
http://hothardware.com/Articles/Asus-W90Vp-Gaming-Notebook-Evaluation/?page=9
Und die 4870M ist schon ein Negativbeispiel. Die ist immerhin bis zu 26% langsamer als die Desktop 4870.
Bei den allermeisten mobilen Ati-Karten ist die Differenz viel kleiner.
aber bitte, jeder soll das glauben was er für richtig hält.
Wenn man darüber jedoch diskutieren will, dann mit Fakten und nicht leeren Aussagen.
ja was denn eigentlich ?
allerdings muss ich dich in der hinsicht enttäuschen.
Die 4870M ist etwa auf augenhöhe mit der 4850 desktop, wenn nicht darüber(12% weniger chiptakt, 78% mehr speicherbandbreite), welche wiederrum mit der 9800gtx desktop karte gleichauf ist.
das ist ein g92 mit vollen 128 shadern, 738mhz chip- und 1100mhz speichertakt.
Diese Leistung weißt jedoch nichtmal die 280M gtx aus, die ganzen 9800M varianten sind noch viel schwächer.
Ich bin mir sicher du beziehst dich wieder auf die 3dmark werte von notebookcheck, von denen jeeder vernünftig denkende Mensch längst weiß das sie nicht stimmen.
bsp : die 4870M ist nach diesen werten langsamer als die 4850M, was schlichtweg nonsense ist.
hier mal echte vergleiche :
4870M deutlich schneller als 9800M gtx trotz höherer auflösung : http://reviews.cnet.com/laptops/asus-w90vp-x1/4505-3121_7-33573799.html?tag=mncol;lst
hier genauso : http://hothardware.com/Articles/Asus-W90Vp-Gaming-Notebook-Evaluation/?page=8
http://hothardware.com/Articles/Asus-W90Vp-Gaming-Notebook-Evaluation/?page=9
Und die 4870M ist schon ein Negativbeispiel. Die ist immerhin bis zu 26% langsamer als die Desktop 4870.
Bei den allermeisten mobilen Ati-Karten ist die Differenz viel kleiner.
aber bitte, jeder soll das glauben was er für richtig hält.
Wenn man darüber jedoch diskutieren will, dann mit Fakten und nicht leeren Aussagen.
Realsmasher
Captain
- Registriert
- Juli 2005
- Beiträge
- 4.046
du hast recht, ich bin entsetzt.
bin einfach den links von notebookcheck gefolgt in denen es heißt
ohne genau zu lesen das da twin bzw dual steht.
Sorry, mea culpa.
allerdings schockiert mich das ein wenig.
ich meine, 11k 3dmarks für 2 * rv870 mit vollen 800shadersn und 550mhz takt ?
selbst das msi mit einer 4850M schafft ja schon 10k Punkte, mit turboknopf sogar 10,7k : http://www.notebookjournal.de/tests/msi-gt725-9547vhp-815
hier zeigt sich das bereits die 4850M die 9800gtx schlägt.
Deswegen nimmt es mir hoffentlich niemand übel das ich dort eine einzelkarte erwartet habe und aufgrund des ergebnisses auch weiterhin glaube das nur eine aktiv war.
bin einfach den links von notebookcheck gefolgt in denen es heißt
Notebooktests mit ATI Mobility Radeon HD 4870 Grafikkarte
ohne genau zu lesen das da twin bzw dual steht.
Sorry, mea culpa.
allerdings schockiert mich das ein wenig.
ich meine, 11k 3dmarks für 2 * rv870 mit vollen 800shadersn und 550mhz takt ?
selbst das msi mit einer 4850M schafft ja schon 10k Punkte, mit turboknopf sogar 10,7k : http://www.notebookjournal.de/tests/msi-gt725-9547vhp-815
hier zeigt sich das bereits die 4850M die 9800gtx schlägt.
Deswegen nimmt es mir hoffentlich niemand übel das ich dort eine einzelkarte erwartet habe und aufgrund des ergebnisses auch weiterhin glaube das nur eine aktiv war.
rumpel01
Fleet Admiral
- Registriert
- März 2006
- Beiträge
- 26.686
11000 Punkte mit einem Quad @schlappe 2GHz könnte ich mir schon vorstellen. Die Leistung pro Kern wäre da ein wenig mager. Ein Dualcore mit 2,53 oder 2,66Ghz bzw. gar 3GHz dürfte bessere Ergebnisse bringen, speziell und insbesondere im SM 2.0-Test.
Zuletzt bearbeitet:
Realsmasher
Captain
- Registriert
- Juli 2005
- Beiträge
- 4.046
denkst du wirklich das 2*4870M mit einem quad, der übrigens die Punktzahl bei gleichem takt ggü einem dualcore enorm anhebt, nur marginal vor 1*4850M liegen ?
ich meine, eigentlich gehts mir ja garnicht um cf oder sli, sondern um die Frage wie die Punktzahl mit einer 4870M aussehen würde.
Und hier kann ich mir beim besten willen nicht vorstellen das die 10k Punkte einer 4850M unterschritten werden, eher liegen sie höher aufgrund von :
- mehr chiptakt
- doppelter speichergröße
- fast doppelter Speicherbandbreite
letztendlich ist das aber alles nur Gerede, denn books mit nur einer 4870 existieren garnicht soweit ich das überblicken kann und schon die 4850 kann mehr als nur konkurrieren mit allen 9800M Lösungen.
Die Frage war ja ursprünglich ob die "neuen" Grafiklösungen in der News wirklich neu sind oder wieder nur über die Tatsache hinwegtäuschen sollen das dem Kunden hier peu à peu nach 2 Jahren endlich ein (teilweise) voller G92 verkauft wird, der zu allem überfluss immernoch stark untertaktet ist und sich als G200 tarnt.
Bzw im midrange bereich der g84, eigentlich noch viel schlimmer :
beispielsweise die "neue" 230M, welche eigentlich eine 130M ist, welche eigentlich eine 9600M gt ist, ursprünglich mal 8600M gt.
Aber selbst nach dem vierten Namen für ein und denselben chip mit minimalen taktänderungen hat man noch nichtmal die Leistung des G84 aus dem April 2007 erreicht und das obwohl der g84 selbst damals schon eine Krücke war.
Und sowas verkauft man heute als "neu" (siehe news, da steht NEU !).
Wenn das nicht Verarsche am Kunden ist weiß ichs auch nicht mehr.
ich meine, eigentlich gehts mir ja garnicht um cf oder sli, sondern um die Frage wie die Punktzahl mit einer 4870M aussehen würde.
Und hier kann ich mir beim besten willen nicht vorstellen das die 10k Punkte einer 4850M unterschritten werden, eher liegen sie höher aufgrund von :
- mehr chiptakt
- doppelter speichergröße
- fast doppelter Speicherbandbreite
letztendlich ist das aber alles nur Gerede, denn books mit nur einer 4870 existieren garnicht soweit ich das überblicken kann und schon die 4850 kann mehr als nur konkurrieren mit allen 9800M Lösungen.
Die Frage war ja ursprünglich ob die "neuen" Grafiklösungen in der News wirklich neu sind oder wieder nur über die Tatsache hinwegtäuschen sollen das dem Kunden hier peu à peu nach 2 Jahren endlich ein (teilweise) voller G92 verkauft wird, der zu allem überfluss immernoch stark untertaktet ist und sich als G200 tarnt.
Bzw im midrange bereich der g84, eigentlich noch viel schlimmer :
beispielsweise die "neue" 230M, welche eigentlich eine 130M ist, welche eigentlich eine 9600M gt ist, ursprünglich mal 8600M gt.
Aber selbst nach dem vierten Namen für ein und denselben chip mit minimalen taktänderungen hat man noch nichtmal die Leistung des G84 aus dem April 2007 erreicht und das obwohl der g84 selbst damals schon eine Krücke war.
Und sowas verkauft man heute als "neu" (siehe news, da steht NEU !).
Wenn das nicht Verarsche am Kunden ist weiß ichs auch nicht mehr.
rumpel01
Fleet Admiral
- Registriert
- März 2006
- Beiträge
- 26.686
denkst du wirklich das 2*4870M mit einem quad, der übrigens die Punktzahl bei gleichem takt ggü einem dualcore enorm anhebt, nur marginal vor 1*4850M liegen ?
Die ersten beiden 3dmark06-Tests (der SM 2.0-Score) skalieren extrem mit der Leistung pro Kern, nicht mit der Anzahl der Kerne. Deshalb konnte man auch etwa mit einem Crossfire-System und einem Phenom I keine anständigen 3dmark06-Ergebnisse einfahren ...^^ Ist die Leistung pro Kern zu schwach, limitiert die CPU enorm und reißt darin die FPS in den Tests und damit Gesamtpunktzahl in den Keller. Der Quad an sich reißt "nur" etwas im zweiten CPU-Test und durch das Hochziehen des CPU-Scores.
Aber abgesehen davon stimme ich Dir zu.
Ähnliche Themen
- Angepinnt
- Antworten
- 125
- Aufrufe
- 35.772
- Antworten
- 27
- Aufrufe
- 13.541
- Antworten
- 23
- Aufrufe
- 6.208
- Antworten
- 45
- Aufrufe
- 8.993
- Antworten
- 11
- Aufrufe
- 1.307