Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Erste Nvidia GeForce 310 DP bei HP verbaut
- Ersteller Volker
- Erstellt am
- Zur News: Erste Nvidia GeForce 310 DP bei HP verbaut
Sgt.4dr14n
Commander
- Registriert
- Jan. 2007
- Beiträge
- 2.827
Lübke schrieb:ist jetzt die frage, wie weit man "upgrade" fassen will. jede architektur der näheren zukunft wird vermutlich noch auf dem unified-shader model beruhen und ist damit entweder r600 (ati) oder g80 (nvidia)-ableger.
Das ist mir durchaus klar, allerdings wird die Architektur immer wieder erweitert (G80 -> G200 bzw. R600 -> RV770) wobei ich dann eher von einem neuen Chip spreche. Ein Upgrade wäre eher 8800GTS G92 -> 9800GTX -> 9800GTX+ -> GTS250, da dort nur der Takt erhöht wurde und die Stromsparfeatures verbessert wurden. Die kleinere Fertigung wurde wohl durch den höheren Takt wieder zunichte gemacht.
Sgt.4dr14n schrieb:Mit dem Unterschied dass der RV620 bei der 3k Reihe als HD34xx lief und bei der 4k Reihe auf eine HD4200 heruntergestuft wurde.
Fassen wir nochmal zusammen:
Bei AMD ist das alles ganz anders. Das kann man überhaupt nicht vergleichen. Und wenn NVidia das Ding 305 genannt hätte, gäbe es hier im Forum natürlich auch keinen solchen künstlichen Aufschrei.
SamSoNight
Commander
- Registriert
- Okt. 2008
- Beiträge
- 2.095
HAHA was für eine geile Aktion nVidia labelt SCHON WIEDER um. Verarsche pur.
Als sie reihenweise G92(b) in GT/X/S 2xx umbennant haben, haben die nVidia Verteidiger noch argumentiert, sie wollen die 9800GT (welche ja eig eine 8800GT ist) und die 9800GTX+ (8800GTS) an das Namenschema der GTX260 usw. anzupassen. Und nun wird eine Karte, die bereits das neue Namensschema aufweist, SCHON WIEDER mal eben eine Generation nach oben katapultiert. Einfach nur lächerlich, ich schäme mich langsam dafür, eine nVidia Karte zu haben.
Ich würd mich nicht wundern, wenn ein neuer Aufguss des G92(b) oder G200(b) (wenn sie den Kunden nur moderat verarschen wollen) die neuen Mainstream GT/X/S 300 werden.
Als sie reihenweise G92(b) in GT/X/S 2xx umbennant haben, haben die nVidia Verteidiger noch argumentiert, sie wollen die 9800GT (welche ja eig eine 8800GT ist) und die 9800GTX+ (8800GTS) an das Namenschema der GTX260 usw. anzupassen. Und nun wird eine Karte, die bereits das neue Namensschema aufweist, SCHON WIEDER mal eben eine Generation nach oben katapultiert. Einfach nur lächerlich, ich schäme mich langsam dafür, eine nVidia Karte zu haben.
Ich würd mich nicht wundern, wenn ein neuer Aufguss des G92(b) oder G200(b) (wenn sie den Kunden nur moderat verarschen wollen) die neuen Mainstream GT/X/S 300 werden.
Sgt.4dr14n
Commander
- Registriert
- Jan. 2007
- Beiträge
- 2.827
FredKune schrieb:Fassen wir nochmal zusammen:
Bei AMD ist das alles ganz anders. Das kann man überhaupt nicht vergleichen. Und wenn NVidia das Ding 305 genannt hätte, gäbe es hier im Forum natürlich auch keinen solchen künstlichen Aufschrei.
Ohne neue Features oder sonstige Veränderungen eine alte Karte umzubenennen und auf dem selben Performence Level (x10) laufen zu lassen ist schon etwas anderes als es AMD geregelt hat.
Achja, zu deiner HD4350 vs. HD3870 Geschichte: wieso ist die 9500GT eigentlich nicht schneller als eine 8800Ultra?
Zuletzt bearbeitet:
1: Mehr Rechenleistung wird gebraucht sobald die GPU auch andere Berechnungen macht, als nur die 2D Darstellung von Word Dateien. Und eine neue Generation impleziert auch neue Features.MEDIC-on-DUTY schrieb:Der OEM-Markt benötigt aktuell nicht mehr Leistung, als man mit der bestehenden Technologie abdecken könnte. Warum also eine bewährte und ausgereifte Technik in den Wind schießen?
Darüber hinaus gibt es eine ganz einfache Regel: Was ich nicht verstehe kaufe ich nicht. So einfach ist das.
Es gibt genügend Leute, Freunde, Bekannte oder jene die hier schreiben, die beratend zur Seite stehen können.
2. Was man nicht versteht kauft man trotzdem. Ich hab keine Ahnung von Chemie (jedenfalls sehr wenig). Trotzdem kaufe ich mir Duschgel. Manchmal braucht man einfach Gegenstände, die man nicht versteht.
Höhwerterwitg: jaFredKune schrieb:Wenn also 3xx hochwertiger erscheint als 2xx, dann erscheint 4350 auch hochwertiger als 3850.
Auch Du solltest bitte lesen worauf sich das mit 4350 und der 3870 bezieht. Ich habe nie behauptet, dass das das gleiche ist, sondern nur aufgezeigt, dass eine größere Zahl nicht bedeutet, dass etwas hochwertiger ist.
Leistungsstärker: nein
Höherwertigkeit kann sich auch in geringerem Stromverbrauch, Features, Treibersupport,... wiederspiegeln. Insofern ist die HD4350 höherwertig. Das ist bei der 210vs310 nicht so.
glaube ich kaum. wenn du aber doch entsprechende INformationen hast: Quelle erwünscht.Motkachler schrieb:NV kapierts einfach nicht die OEM PC Hersteller müssen für den gleichen alten Müll mehr bezahlen
Aber natürlich. Die HD5350 wird schneller sein, als die HD4350. Das ist bei 310 vs 210 nicht gegeben.FredKune schrieb:Richtig! Das kann man nicht. Wenn z.B. demnächst vielleicht eine HD 5350 rauskommt, dann kannst Du an der Zahl überhaupt nicht erkennen wie gut die Karte im Verhältnis der anderen Karte z.B. der HD 4xxx-Reihe ist.
Die Kritiker hier erwarten lediglich, dass es bei einem Namenswechsel auch Verbesserungen in irgendeinem Gebiet geben wird. Dabei vergleicht man immer gleiches mit gleichem. Deiner Theorie nach kann ich auch eine HD4350 mit einer Geforce 4 Ti 4200 vergleichen und behaupten, dass ATI die schnelleren und besseren Karten hätte. Generationsübergreifende vergleiche mit unterschiedlichen Leistungsklassen funktionieren nichtRaptor2063 schrieb:also eine 4XXX ist immer besser als eine 3XXX, weil das bei ATI durchgezogen wurde?
HD4350: 96 GFLOPS <=> HD3870 496 GFLOPS
Das passiert mit dem 22nm Shrink (GT 520 oder so), da die dann billig und stromsparend genug sind um im Low End Segment eingesetzt zu werden ;-)blangone schrieb:Ich frag mich echt, wie lange es dauern wird, bis Fermi in der unteren Mittelklasse angekommen sein wird.
JokerGermany
Banned
- Registriert
- März 2009
- Beiträge
- 1.546
Neo_Xsendra schrieb:@Sgt.4dr14n
1. DX hab cih ausgeklammert dabei
2. jap genau wie der gt200 nur ein g92 upgrade war
Was ist eigentlich so schlimm daran?
Solange man die Karten nicht so umbenennt, dass es keiner mitbekommt.
Also das umlabeln der Karte halte ich für durchaus legitim. Wenn Fermi schon da wäre udn eine High-End Karte für die 300er Serie stellen würde, dann wäre die G210 als 310 von der Leistung und Features her durchaus eine passende Low-Budget Karte. Dies kommt auch daher, dass sich die "neuen" 200er karten ja auch von den alten unterscheiden in Punkto DX10.1, 40nm Shrink und GDDR5 wobei das letzte hier uninteressant ist
Solches renaming im Low-Budget Bereich ist ja bei nV wie auch ATI nicht unbekannt (und btw. auch keine neue Idee) und wenn man ehrlich ist, in gewissem Masse auch wirtschaftlich sinnvoll.
Was ich hier diskustierenswerter fände ist wieso nV das macht! Ich meine ein Zugzwang ist nun wirklich nicht da. G210 und GT220 findet man bei sehr sehr vielen Komplett-PCs die jetzt auf Weihnachten hin verkauft werden und ATI bietet ja auch noch kein neueres Gegenstück aus der HD5k Serie. Insofern kann hier nV den Weihnachtsmarkt aus meiner Sich voll mitnehmen.
Also wo liegt dann die Motivation zur Umbenennung? Ich kann es mir nicht erklären. Zumal es auch eher ungewöhnlich ist neue Serien im Low-End Bereich zu launchen es sei denn man wolle Fermi als 400er Serie bringen oder die G310 nicht als 300er Karte sehen weil sie OEM only ist?!
Solches renaming im Low-Budget Bereich ist ja bei nV wie auch ATI nicht unbekannt (und btw. auch keine neue Idee) und wenn man ehrlich ist, in gewissem Masse auch wirtschaftlich sinnvoll.
Was ich hier diskustierenswerter fände ist wieso nV das macht! Ich meine ein Zugzwang ist nun wirklich nicht da. G210 und GT220 findet man bei sehr sehr vielen Komplett-PCs die jetzt auf Weihnachten hin verkauft werden und ATI bietet ja auch noch kein neueres Gegenstück aus der HD5k Serie. Insofern kann hier nV den Weihnachtsmarkt aus meiner Sich voll mitnehmen.
Also wo liegt dann die Motivation zur Umbenennung? Ich kann es mir nicht erklären. Zumal es auch eher ungewöhnlich ist neue Serien im Low-End Bereich zu launchen es sei denn man wolle Fermi als 400er Serie bringen oder die G310 nicht als 300er Karte sehen weil sie OEM only ist?!
Lübke
Fleet Admiral
- Registriert
- Aug. 2007
- Beiträge
- 21.162
@Sgt.4dr14n: das ist schon son beispiel mit dem g92. eine strukturverkleinerung ist schon ein massiver eingriff und kann imho durchaus als neuer chip gewertet werden. auf der anderen seite orientiert man sich gerne an direct x. meine gf2 mx400 und später gf4 mx440 hatten unterschiedliche dx-versionen aber von vielen wird (imho zu recht) die gf4 mx als gf2 aufguss abgetan.
sowas abzugrenzen ist reine ansichtssache. wie man welche veränderung wertet, sieht jeder anders.
allerdings bei der g210 und g310 gibts gar keine bekannte änderung. -.-
sowas abzugrenzen ist reine ansichtssache. wie man welche veränderung wertet, sieht jeder anders.
allerdings bei der g210 und g310 gibts gar keine bekannte änderung. -.-
Neo_Xsendra
Lieutenant
- Registriert
- Sep. 2009
- Beiträge
- 809
@JokerGermany
ich sage nciht das es schlimm ist, nur das es unterschiedlich bewertet wird
@DerToast
Vermutlich haben die OEM protestiert das sie "die alte serie" verbauen sollen obwohl die karten sich von der 2xx reihe technisch unterschiedet
ich sage nciht das es schlimm ist, nur das es unterschiedlich bewertet wird
@DerToast
Vermutlich haben die OEM protestiert das sie "die alte serie" verbauen sollen obwohl die karten sich von der 2xx reihe technisch unterschiedet
Sgt.4dr14n
Commander
- Registriert
- Jan. 2007
- Beiträge
- 2.827
@Lübke: Allerdings kommen durch den Shrink keine Performenceverbesserungen einher und so ist die zwei Generationen neuere Einstufung durch reine Taktbedingte Leistungsverbesserung eher nicht so doll .
Btw. weiß ich auch als ehemaliger GF2MX400 und GF4MX460 Besitzer dass das wirklich nur ein reiner Aufguß mit kleinerem Fertigungsprozess, mehr Takt und derselben DX Version (DX7) war . Sprich dasselbe wie derzeit mit dem G92 (lol)
Btw. weiß ich auch als ehemaliger GF2MX400 und GF4MX460 Besitzer dass das wirklich nur ein reiner Aufguß mit kleinerem Fertigungsprozess, mehr Takt und derselben DX Version (DX7) war . Sprich dasselbe wie derzeit mit dem G92 (lol)
DarknessFalls
Lieutenant
- Registriert
- Feb. 2008
- Beiträge
- 931
Raptor2063 schrieb:naja du scheinst es auch nicht verstehen zu wollen, oder?
egal ob ATI oder NV nur mit der Zahl kann man nichts aussagen!
also eine 4XXX ist immer besser als eine 3XXX, weil das bei ATI durchgezogen wurde?
HD4350: 96 GFLOPS <=> HD3870 496 GFLOPS
hmm komisch, die HD4350 ist "schlechter" als die HD3870, obwohl aus der 4er Serie
also seien wir doch mal ehrlich, nur Zahlen sagen einfach nichts!
DU wirfst MIR vor, ICH würde nicht vestehen? Au backe. Pass auf, ich zitier mich mal selber:
Bei ATi kann ich sehr wohl bestimmen, daß eine HD5350 besser ist als die direkte Vorgängerkarte HD4350, so sollte es sein.
Und nochmal:
Ich krieg auch nicht ganz in die Birne, warum es immer noch User gibt, die verzweifelt versuchen, dieses ständige Umgelabel von nVidia zu verteidigen und dann auch noch hingehen und wirre Vergleiche wie 4350 vs. 3870 ziehen. Das entbehrt jeder Grundlage. 4=Generation (RV7x0), 3=Chipklasse (RV730=Office), 5=Leistungsklasse innerhalb der Chipklasse, 0=bedeutungslos. 3=Generation (also einen Gen älter), 8=Chipklasse (RV670=Performance), 7=Leistungsklasse innerhalb der Chipklasse, 0=bedeutungslos.
Jetzt versuch das mal wer sinnvoll mit GeForce 210 vs. 310. Oder mit 8800 GT vs. 9800 GT. Oder 8800 GTS G92 OC vs. 9800 GTX vs. 9800 GTX+ vs. GTS 250.
So. Und jetzt sag mir NOCHMAL (aber bitte vernünftig begründet), warum die Zahlen bei ATi nix aussagen.
MisaMisa
Cadet 4th Year
- Registriert
- Apr. 2009
- Beiträge
- 94
so langsam geht mir das auf die Nerven mit Computerbase. Diese Story ist definitiv nicht nötig als Titelgeschichte auf den Pranger zu stellen. Die News hat kein Stand und man weiß gar nicht ob das nur für OEMs gilt oder auch so. Außerdem gehts um den totalen Lowend Markt AMD hat das selbe gemacht mit ihrer Radeon HD 4200 Onboard. Sind jetzt alle Besitzer von einem AM3 Board reingelegt worden?
Computerbase verliert an Objektivität und lässt sich eher von Gefühlen und den Masse leiten statt die Dinge so zusehen wie sie wirklich sind. Erst testet ihr Eyefinity und während das vor Monaten erschienen Konzept von Nvidia 3D Vision garnichts kriegt und nun bekommt Nvidia für jeden Murks die Titelstory.
Computerbase verliert an Objektivität und lässt sich eher von Gefühlen und den Masse leiten statt die Dinge so zusehen wie sie wirklich sind. Erst testet ihr Eyefinity und während das vor Monaten erschienen Konzept von Nvidia 3D Vision garnichts kriegt und nun bekommt Nvidia für jeden Murks die Titelstory.
Lübke
Fleet Admiral
- Registriert
- Aug. 2007
- Beiträge
- 21.162
meines wissens konnte die gf4 dx8...
komando zurück, hast recht, das gilt nur für die gf4 ti^^
da lag ich wohl falsch.
dann halt anderes beispiel: radeon 9500 (r300, dx9) zu radeon 9100 (r200, dx8) zu radeon 8500 (r200, dx8)
9500 und 9100: eine "generation", zwei dx-versionen
komando zurück, hast recht, das gilt nur für die gf4 ti^^
da lag ich wohl falsch.
dann halt anderes beispiel: radeon 9500 (r300, dx9) zu radeon 9100 (r200, dx8) zu radeon 8500 (r200, dx8)
9500 und 9100: eine "generation", zwei dx-versionen
Zuletzt bearbeitet:
Neo_Xsendra
Lieutenant
- Registriert
- Sep. 2009
- Beiträge
- 809
@MisaMisa
also wenn ich mir die andern news von heut ... oder auch der letzten zeit so anschau ist das stellenweise glaub ich eher die verzweiflung als anti NV ... ich mein ... mal im ernst ... das war TATSÄCHLICH das intresasanteste heute bei den news ~.~
also wenn ich mir die andern news von heut ... oder auch der letzten zeit so anschau ist das stellenweise glaub ich eher die verzweiflung als anti NV ... ich mein ... mal im ernst ... das war TATSÄCHLICH das intresasanteste heute bei den news ~.~
Raptor2063
Captain
- Registriert
- Apr. 2009
- Beiträge
- 3.241
@ FortissimoIV
zu deiner HD5350 und HD4350 Geschichte, woher weiß ich, dass ich nicht nur die erste Zahl alles besser macht? richtig wenn ich mich informiere dann weiß ich eine HD4650 ist besser als eine HD4350, aber heißt es automatisch das eine HD5350 besser als eine HD4890 ist, eben nicht... aber gut... und normal sollte eine HD5350 schneller sein als eine HD4350. Klar ist eine 310DP vermutlich eine 210 mit DP und neuem Namen und?! Aber dennoch steht es nirgends und wenn fällt es eben nur dann auf wenn ein ähnlicher Rechner mit 210 und 310 dasteht, denn dann greift man natürlich als unwissender zum 310er... aber auch nur dann.
ABER: ja du hast Recht, ich habs aber vorher schon geschrieben: Nividia ist böse und ATI ist gut, alle haben sich lieb - Weltfrieden
aber um doch noch was sinnvolles beizutragen, ich halte mich aus der Diskussion nun raus, völlig sinnlos sich über eine Low-Endkarte zu streiten die vermutlich hier im Forum nicht mal 1% zu Gesicht bekommt. Ganz abgesehen davon ist es mir sowas von egal was NV oder ATI macht, beides sind Firmen die zum Geld verdienen da sind und das es in dieser Branche nicht immer super sauber läuft wissen wir alle... also sollen sie machen was sie wollen. Ich muss mir ja keine 310DP kaufen. Ich bin alt genug, dass ich mich informiere, vergleiche und mir dann das für mich beste raushole und kaufe.
zu deiner HD5350 und HD4350 Geschichte, woher weiß ich, dass ich nicht nur die erste Zahl alles besser macht? richtig wenn ich mich informiere dann weiß ich eine HD4650 ist besser als eine HD4350, aber heißt es automatisch das eine HD5350 besser als eine HD4890 ist, eben nicht... aber gut... und normal sollte eine HD5350 schneller sein als eine HD4350. Klar ist eine 310DP vermutlich eine 210 mit DP und neuem Namen und?! Aber dennoch steht es nirgends und wenn fällt es eben nur dann auf wenn ein ähnlicher Rechner mit 210 und 310 dasteht, denn dann greift man natürlich als unwissender zum 310er... aber auch nur dann.
ABER: ja du hast Recht, ich habs aber vorher schon geschrieben: Nividia ist böse und ATI ist gut, alle haben sich lieb - Weltfrieden
aber um doch noch was sinnvolles beizutragen, ich halte mich aus der Diskussion nun raus, völlig sinnlos sich über eine Low-Endkarte zu streiten die vermutlich hier im Forum nicht mal 1% zu Gesicht bekommt. Ganz abgesehen davon ist es mir sowas von egal was NV oder ATI macht, beides sind Firmen die zum Geld verdienen da sind und das es in dieser Branche nicht immer super sauber läuft wissen wir alle... also sollen sie machen was sie wollen. Ich muss mir ja keine 310DP kaufen. Ich bin alt genug, dass ich mich informiere, vergleiche und mir dann das für mich beste raushole und kaufe.
Zuletzt bearbeitet:
Für dich MisaMisa: (und zur Verteidigung von Computerbase!)
https://www.computerbase.de/2008-12/weitere-details-zur-3d-brille-von-nvidia/
https://www.computerbase.de/2009-04/3d-vision-von-nvidia-ab-morgen-im-media-markt/
wenn du die Suche benutzt, findest du noch mehr...
https://www.computerbase.de/2008-12/weitere-details-zur-3d-brille-von-nvidia/
https://www.computerbase.de/2009-04/3d-vision-von-nvidia-ab-morgen-im-media-markt/
wenn du die Suche benutzt, findest du noch mehr...
FortissimoIV schrieb:4=Generation (RV7x0), 3=Chipklasse (RV730=Office), 5=Leistungsklasse innerhalb der Chipklasse, 0=bedeutungslos.
Schön, dass Du Dich da nochmal selber wiederholt hast, aber es wird durch wiederholen auch nicht richtiger.
Die 4890 ist eine R790, die 4870 eine R770 - obwohl beide ja die 8 haben - und die 4730 hat die die 4870 eine R770, obwohl die ja angeblich unterschiedliche Chipklassen haben.
Mal abgesehen davon kann man an den Zahlen trotzdem nicht direkt erkennen wie Karten aus VERSCHIEDENEN Generationen untereinander abschneiden. Ein Vergleich ist nur innerhalb einer Generation möglich. Und das funktioniert bei beiden Herstellern.
Lübke
Fleet Admiral
- Registriert
- Aug. 2007
- Beiträge
- 21.162
sagen wirs doch einfach mal so: die namensgebung ist in erster linie ein marketinginstrument und kein zuverlässiger wert zur einordnung der produkte. dies gilt für alle hersteller.
bei der g310 ist das aber relativ unschön gelöst, was bei der radeon mobile 2300 (dx9) von der konkurrenz ebenso schlecht gelöst war.
keiner ist "böser" als der andere.
kann man das so stehn lassen oder sieht das wer anders?
bei der g310 ist das aber relativ unschön gelöst, was bei der radeon mobile 2300 (dx9) von der konkurrenz ebenso schlecht gelöst war.
keiner ist "böser" als der andere.
kann man das so stehn lassen oder sieht das wer anders?
DiaPolo
Lt. Commander
- Registriert
- März 2002
- Beiträge
- 1.408
Lübke schrieb:meines wissens konnte die gf4 dx8...
hoffe mal das ich es noch korrekt zusammenbringe
Die GF4 MX hatte DX7 mit ner Sorftwareerweiterung für Vertex Shader im Treiber, KEINE Hardware Pixelshader / Vertexshader
Die GF4 TiXXXX hatte DX8 mit Hardware Vertex- + Pixelshader
http://de.wikipedia.org/wiki/Nvidia-GeForce-4-Serie
/edit
ups...da warn edit drin OK -> erledigt
Zuletzt bearbeitet:
(edit)
Ähnliche Themen
- Antworten
- 126
- Aufrufe
- 32.511
- Antworten
- 8
- Aufrufe
- 3.786
- Antworten
- 38
- Aufrufe
- 13.746
- Antworten
- 227
- Aufrufe
- 32.727
- Antworten
- 273
- Aufrufe
- 44.790