Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Nvidias GT200 noch in 65 nm?
- Ersteller Parwez
- Erstellt am
- Zur News: Nvidias GT200 noch in 65 nm?
F_GXdx
Captain
- Registriert
- März 2006
- Beiträge
- 4.028
Was bitte? So ein Käse! Im Graka Sektor ist wohl eindeutig ein wesentlich höherer Innovationsdruck und kürzerer Produktzyklus als im CPU und IC Geschäft!Zhan schrieb:den beiden alten schnarchsäcken (ati und nvidia)
Was ATI und nVidia seit Jahren leisten ist schon ganz beachtlich.
Während die Grafik einen Meilenstein nach dem anderen geschafft hat,
ist bei den CPU's ja wohl eher Flaute was großartige Geschwindigkeitszuwächse angeht.
Wenn ich heute Anno spiele mit meiner GeForce 7600 (damals Preisleistungssieger) und schaue, was heute eine gleich teure 3850 schafft, frage ich mich, wie du zu deiner Behauptung kommst? Die 3850 ist nämlich etwa 6 mal schneller. (10 frames zu 60 frames). Und es sind 2 Jahre vergangen.
Zuletzt bearbeitet:
S
ShaÐe45
Gast
Das mit dem Stromverbrauch ist schon ne lustige Sache. Viele schreien immer: "Ja, weniger bitte" aber übertakten Ihr System teilweise bis zum Anschlag.
Außerdem interessiert Zocker der Stromverbrauch einen feuchten Kuhmist. Ob 350W unter Last oder 450W, das ist völlig egal. Mal abgesehen davon bezahlen die meisten hier den Strom nichtmal selbst.
Grundsätzlich bin ich auch dafür, dass die Hardware stromsparender wird. Aber ehrlich gesagt ist mir Speed wichtiger.
Außerdem interessiert Zocker der Stromverbrauch einen feuchten Kuhmist. Ob 350W unter Last oder 450W, das ist völlig egal. Mal abgesehen davon bezahlen die meisten hier den Strom nichtmal selbst.
Grundsätzlich bin ich auch dafür, dass die Hardware stromsparender wird. Aber ehrlich gesagt ist mir Speed wichtiger.
Straputsky
Commander
- Registriert
- Nov. 2005
- Beiträge
- 2.508
Naja, es ist ja nicht so, als würde man ganz auf Stromeinsparungen verzichten. nVidia entwickelt HybridSLI und ATI hat mit Powerplay ja schon einen Schritt in die richtige Richtung gemacht. Somit wird schon mal der hohe Energieverbrauch im idle-Modus bekämpft und das ist ja bereits eine Entwicklung zum besseren.
Wie Moe_Ses bereits gesagt hat, wird Mehrleistung nun mal durch einen höheren Energieverbrauch erkauft. Nur kleinere Strukturfertigungen führen wieder zu weniger Stromaufnahme. Dies ist im übrigen bei den CPUs auch nicht so viel anders.
@ShaDae
bzgl. übertakten und Stromsparen dachte ich genau dasselbe, wollts aber nicht schreiben
Wie Moe_Ses bereits gesagt hat, wird Mehrleistung nun mal durch einen höheren Energieverbrauch erkauft. Nur kleinere Strukturfertigungen führen wieder zu weniger Stromaufnahme. Dies ist im übrigen bei den CPUs auch nicht so viel anders.
@ShaDae
bzgl. übertakten und Stromsparen dachte ich genau dasselbe, wollts aber nicht schreiben
24 Seconds
Commander
- Registriert
- Apr. 2007
- Beiträge
- 2.580
Zhan schrieb:wird zeit, dass intel mal highend-grafikkarten auf den markt wirft und den beiden alten schnarchsäcken (ati und nvidia) mal ein bissel druck macht.
Jo, NV und ATi spielen jetzt schon seit über einem Jahr nur Mensch ärger dich nicht und Schiffeversenken in ihren Werken, anstatt mal was neues zu entwickeln - die sollen sich endlich wieder an die Arbeit machen!
Mal ehrlich, die Refreshs (G92, R670) sind zwar nicht schneller als die Vorgänger, aber immernoch schnell genug für die meisten User. Ein High-End Freak kann sich immernoch SLi oder CF holen, falls ihm selbst ne 8800GTX nicht reichen sollte.
Ich finde es eher sogar gut, dass die alten Karten nochmal verbessert wurden und sich genug Zeit für ne komplett neue Serie gelassen wird. Lieber etwas länger warten als alle 6 Monate was neues zu bekommen, dass erst ein Jahr nach Release durch zig Treiber, Patches, etc. richtig läuft.
Warum regt ihr euch auf, dass hier immer höhere Leistungen gefordert werden? Wenn ihr mit niedrigeren Grafikdetails, Auflösungen usw. auskommt, kann euch das doch schnuppe sein. Ich kauf auch nur ne neue GraKa wenn ich günstig drankomme und umbedingt ne neue will. Ich hab zwar fast nie die aktuellste Grafik aufm Computer, aber das Geld wär mir einfach zu schade. Wenn andere das investieren wollen sollte das euch doch nicht jucken. Und einen stagnierenden Stromverbrauch zu fordern ist sicher nicht utopisch. Bei CPUs klappt das anscheinend sehr gut (trotz steigender Leistung) und Stromverbrauch der aktuellen Grafikkarten sind wirklich langsam unverschämt hoch.
Zu den Temps muss ich sagen, dass das absolut der falsche Weg ist. Es ist wirklich an der Zeit auf 45nm umzusteigen. Der Temperaturvorteil wird wirklich benötigt. Luftkühlung hat iwo Grenzen. Entweder man steigt langsam komplett auf WaKü um (senkt somit auch die Preise für WaKü) oder man muss langsam erkennen, dass solche Temperaturen schon fast fahrlässig sind.
Zu den Temps muss ich sagen, dass das absolut der falsche Weg ist. Es ist wirklich an der Zeit auf 45nm umzusteigen. Der Temperaturvorteil wird wirklich benötigt. Luftkühlung hat iwo Grenzen. Entweder man steigt langsam komplett auf WaKü um (senkt somit auch die Preise für WaKü) oder man muss langsam erkennen, dass solche Temperaturen schon fast fahrlässig sind.
Moe_Ses
Cadet 4th Year
- Registriert
- Jan. 2006
- Beiträge
- 112
Zhan schrieb:@moe_ses: im allgemeinen wird alle 2 jahre eine verdopplung der leistung erwartet. was bisher auch durchaus realistisch war.
wenn so weiter geht, haben wir im graka-markt aber bald 2 jahre mit 0% leistungssteigerung voll.
Geforce FX 5800 - Januar 2003
-->etwas mehr als ein Jahr
Geforce 6800 Ultra - April 2004
-->etwas mehr als ein Jahr
Geforce 7800 GTX - Juni 2005
-->1 1/2 Jahre
Geforce 8800 GTX - November 2006
-->evtl etwas mehr als 1 1/2 Jahre
GT200/R700
- Normalerweise wurde die Leistung innerhalb einer Generation ständig erhöht, dazu hatte aber Nvidia im letzten Jahr kein Grund
- Wenn die Meldung von Fudzilla stimmt, dürfte der GT200 nicht so einen großen Performancesprung darstellen, was aber nicht unüblich ist (siehe Leistung 6800 --> 7800)
- Wenn die Abstände zwischen zwei Generationen immer etwas größer werden, liegt es nicht daran, dass Nvidia/ATI ja so faul sind, sondern daran, dass die Entwicklung immer komplexer (und Fehleranfälliger) wird und dass es schlicht keinen Grund für schnellere Grafikkarten gab
Für mich ist die Innovation und Leistungsentwicklung unter diesen Umständen aber lange nicht gefährdet...
Zuletzt bearbeitet:
GeneralHanno
Commander
- Registriert
- Juni 2006
- Beiträge
- 2.538
also es heißt nicht umsonst MINDESTENS 1Mrd transitoren. der transistorencount wird wohl eher bei 1,5Mrd+ liegen. entsprechend gross wird das DIE sein (über 500mm²).
DirectX 11? wann soll denn das kommen?? gibt doch erst seit kurzem DX10...
hmm wenn der GT200 nicht wirklich was neues wird, werde ich mir wohl doch bald eine neue karte zum überbrücken kaufen... vll wirds sogar mal ne ATI^^ jedenfalls hoffe ich das die sich etwas beeilen (ohne zu pfuschen) und ne neue generation rausbringen wo ich z.B. crysis auf very-high mit mehr als 35 FPS zocken kann (nein ich habe keine 8800Ultra! ich muss das spiel auf medium mit ner 800 x 600 auflösung zocken -_-)
hmm wenn der GT200 nicht wirklich was neues wird, werde ich mir wohl doch bald eine neue karte zum überbrücken kaufen... vll wirds sogar mal ne ATI^^ jedenfalls hoffe ich das die sich etwas beeilen (ohne zu pfuschen) und ne neue generation rausbringen wo ich z.B. crysis auf very-high mit mehr als 35 FPS zocken kann (nein ich habe keine 8800Ultra! ich muss das spiel auf medium mit ner 800 x 600 auflösung zocken -_-)
ich bleib dabei - im cpu sektor steigt die leistung doch kontinuierlich. so lang sind die netburst zeiten noch nicht her. und wenn man sich dazu im vergleich mal nen 3ghz quadcore anguckt ....
und bei den grakas: seit der gtx (die jetzt bald eineinhalb jahre alt ist) haben wir doch faktisch stillstand in sachen topleistung. ne aufgebohrte gtx (ultra)vor nem knappen jahr und jetzt ne zusammengefriemelte x2 von ati [die wegen der tollen treiber in einigen games trotzdem noch dramatisch langsamer als ne gtx ist und im schnitt (cb performanc rating dx10) grad mal 15% mehr bringt als ne gtx] sind da irgendwie nicht die offenbarung. und da es ja nun noch ein wenig dauert, bis mal wirklich wieder ein technologiesprung kommt, haben wir halt im herbst 2 jahre voll, in denen sich nichts nennenswertes getan hat.
wäre ati im highendbereich die letzten monate etwas stärker gewesen, hätte nvidia auch garantiert mehr rausgehauen als einen refresh auf gtx niveau (der für diejenigen, die bisher noch keine dx10 karte hatten, natürlich toll war - keine frage). daher meine these, dass ein weiterer mitspieler im highendbereich nur gut für den markt sein kann. wobei diese these vermutlich auch bestand hat, wenn man die aktuelle situation komplett ausser acht lässt - mehr konkurrenz ist immer gut für den kunden.
edit @ycon: richtig. hätte ati was oberhalb der ultra im angebot gehabt die letzten monate, wäre der refresh garantiert nicht mit - überzogen formuliert - angezogener handbremse ausgeliefert worden. aber warum den kunden 30% mehr leistung verkaufen, wenn sie auch für 15% in den laden rennen. die kann man doch wunderbar nochmal abkassieren. womit wir wieder bei der konkurrenzsituation wären.
und bei den grakas: seit der gtx (die jetzt bald eineinhalb jahre alt ist) haben wir doch faktisch stillstand in sachen topleistung. ne aufgebohrte gtx (ultra)vor nem knappen jahr und jetzt ne zusammengefriemelte x2 von ati [die wegen der tollen treiber in einigen games trotzdem noch dramatisch langsamer als ne gtx ist und im schnitt (cb performanc rating dx10) grad mal 15% mehr bringt als ne gtx] sind da irgendwie nicht die offenbarung. und da es ja nun noch ein wenig dauert, bis mal wirklich wieder ein technologiesprung kommt, haben wir halt im herbst 2 jahre voll, in denen sich nichts nennenswertes getan hat.
wäre ati im highendbereich die letzten monate etwas stärker gewesen, hätte nvidia auch garantiert mehr rausgehauen als einen refresh auf gtx niveau (der für diejenigen, die bisher noch keine dx10 karte hatten, natürlich toll war - keine frage). daher meine these, dass ein weiterer mitspieler im highendbereich nur gut für den markt sein kann. wobei diese these vermutlich auch bestand hat, wenn man die aktuelle situation komplett ausser acht lässt - mehr konkurrenz ist immer gut für den kunden.
edit @ycon: richtig. hätte ati was oberhalb der ultra im angebot gehabt die letzten monate, wäre der refresh garantiert nicht mit - überzogen formuliert - angezogener handbremse ausgeliefert worden. aber warum den kunden 30% mehr leistung verkaufen, wenn sie auch für 15% in den laden rennen. die kann man doch wunderbar nochmal abkassieren. womit wir wieder bei der konkurrenzsituation wären.
Zuletzt bearbeitet:
@ycon
deine aussage ist etwas wirsch
ich könnte genauso gut sagen der G80 ist schneller,wenn er denn mehr sp hätte
das speicherinterface gehört nun mal mit zum chip
@heretic novalis
das würd ich so unterschreiben
genau das gleiche mit leistung vs. stromverbrauch
alle wollen immer größere leistungssprünge, aber das das ohne einen höheren stromverbrauch nicht geht ignoriert jeder
wenn man das eine will bekommt man das andere gleich mit
zumal man ja stromsparende grakas haben kann, nur ist dann wieder keiner mit der leistung zufrieden
und jetzt kommt nicht mit dem vergleich zu den cpus
da sind die performancesprünge deutlich kleiner
deine aussage ist etwas wirsch
ich könnte genauso gut sagen der G80 ist schneller,wenn er denn mehr sp hätte
das speicherinterface gehört nun mal mit zum chip
@heretic novalis
das würd ich so unterschreiben
genau das gleiche mit leistung vs. stromverbrauch
alle wollen immer größere leistungssprünge, aber das das ohne einen höheren stromverbrauch nicht geht ignoriert jeder
wenn man das eine will bekommt man das andere gleich mit
zumal man ja stromsparende grakas haben kann, nur ist dann wieder keiner mit der leistung zufrieden
und jetzt kommt nicht mit dem vergleich zu den cpus
da sind die performancesprünge deutlich kleiner
Xardas1988
Lieutenant
- Registriert
- Dez. 2004
- Beiträge
- 744
Die Fertigung in 65nm sehe ich jetzt nicht unbedingt als so unfortschrittlich. Ist ja jetzt nichts besonderes das NV bzw. ATI in größeren Strukturen fertigen lässt als Intel ihre CPUs fertigt. Solang die Lautstärke der Kühllösungen halbwegs annehmbar ist, ist alles ok. Kann mir auch nicht vorstellen das NV nach so langer Zeit Karten ohne große Leistungssteigerung als Geforce 9 bringt. Das es so lange gedauert hat is ja wohl nicht Nvidias Schuld. Sie hatten schließlich keine Konkurrenz im High End Segment.
Graf-von-Rotz
Banned
- Registriert
- Jan. 2007
- Beiträge
- 2.653
Nehebkau schrieb:DirectX 11? wann soll denn das kommen?? gibt doch erst seit kurzem DX10...
Na ja im Computerbereich würde ich über ein Jahr nicht als "seit kurzem" bezeichnen .
Das es bisher so gut wie nicht genutzt wurde steht auf einem anderen Blatt .
Zuletzt bearbeitet:
Genoo
Commander
- Registriert
- Okt. 2006
- Beiträge
- 3.022
F_GXdx schrieb:Ich erinnere mich da an ganz interessante Videos.
http://www.youtube.com/watch?v=YaBxse7mGro
rofl, danke, lange nicht mehr so gut gelacht
BrOokLyN R!ot ³
Vice Admiral
- Registriert
- Dez. 2006
- Beiträge
- 6.606
aha aber ich blicke so langsam bei der Namensgebung nimmer durch. Also das ist mir ein Rätsel warum auf einmal von G92/94 auf 200 und dann solls ja zurück gehen auf 100. Komisch oder hab ich was missverstanden?
Gruss Jens
Gruss Jens
die parameter in der heutigen zeit erleben einfach zu krasse spruenge!
diesmal waren eben 2 parameter gut verschoben...
einerseits der marktwirtschaftliche aspekt ATI! wenn keine konkurrenz da ist kannste eben mit deinen produkten die kunden melken bis zum ultimo...
der andere parameter waere der zu krasse hardwarehunger der spiele... ist ja schoen und gut was man alles programmieren koennte...aber man sollte auch bedenken das der groesste teil der user nen "normalen" pc hat und das spiel auch dort mit ner zeitgemaessen grafik laufen sollte... die "bombengrafik" die die engine liefern koennte koennte man auch auf nen spaeteren zeitpunkt verschieben... ist ja nicht so das eine engine nur fuer ein spiel programmiert wird...die kann sich ja auch weiterentwickeln wenn die hardware mal passt...
und ich denke das die allgemeinen standards die so manche unternehmen immer wieder mit der brechstange setzen einfach in zu kurzen zeitabschnitten erfolgen...
wofuer dx11 wenn die hardware dx10 noch nichtmal ausreizen kann? und sogar mit dx9 nicht unbedingt am limit is?
diesmal waren eben 2 parameter gut verschoben...
einerseits der marktwirtschaftliche aspekt ATI! wenn keine konkurrenz da ist kannste eben mit deinen produkten die kunden melken bis zum ultimo...
der andere parameter waere der zu krasse hardwarehunger der spiele... ist ja schoen und gut was man alles programmieren koennte...aber man sollte auch bedenken das der groesste teil der user nen "normalen" pc hat und das spiel auch dort mit ner zeitgemaessen grafik laufen sollte... die "bombengrafik" die die engine liefern koennte koennte man auch auf nen spaeteren zeitpunkt verschieben... ist ja nicht so das eine engine nur fuer ein spiel programmiert wird...die kann sich ja auch weiterentwickeln wenn die hardware mal passt...
und ich denke das die allgemeinen standards die so manche unternehmen immer wieder mit der brechstange setzen einfach in zu kurzen zeitabschnitten erfolgen...
wofuer dx11 wenn die hardware dx10 noch nichtmal ausreizen kann? und sogar mit dx9 nicht unbedingt am limit is?
FreiWild007
Cadet 4th Year
- Registriert
- Jan. 2008
- Beiträge
- 96
@saber_ Man kann nur hoffen, dass diese Argumente, dann sich nicht zu negativ auswirken und einfach mal Stillstand hervorrufen!
ToNkA23
Lt. Junior Grade
- Registriert
- Feb. 2005
- Beiträge
- 435
Wie sich manche über einen popeligen Codenamen aufregen können Ist doch schnurz wie das Ding heisst.
Btt: Mir ist die Stagnation sehr recht, so kann ich z.B. mit meiner alten X1900XT locker alle aktuellen Titel (vllt. bis auf Crysis) zufriedenstellend spielen, da gabs schon andere Zeiten, wo die Entwicklung schneller war. Von dem her freuts mich, ich hatte noch nie über so lange Zeit eine GraKa, ohne den Drang nach etwas neuem zu verspüren Weiter so, AMD/NV
(Wer Ironie findet, darf sie behalten)
Btt: Mir ist die Stagnation sehr recht, so kann ich z.B. mit meiner alten X1900XT locker alle aktuellen Titel (vllt. bis auf Crysis) zufriedenstellend spielen, da gabs schon andere Zeiten, wo die Entwicklung schneller war. Von dem her freuts mich, ich hatte noch nie über so lange Zeit eine GraKa, ohne den Drang nach etwas neuem zu verspüren Weiter so, AMD/NV
(Wer Ironie findet, darf sie behalten)
Ähnliche Themen
- Antworten
- 58
- Aufrufe
- 11.176
- Antworten
- 27
- Aufrufe
- 6.288
- Antworten
- 45
- Aufrufe
- 6.582
- Antworten
- 118
- Aufrufe
- 20.325
- Antworten
- 105
- Aufrufe
- 7.919