Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Finale Taktraten der GeForce GTX 280/GTX 260?
- Ersteller Wolfgang
- Erstellt am
- Zur News: Finale Taktraten der GeForce GTX 280/GTX 260?
Das entscheidente ist doch dass die Karte nun auch bei hohen Auflösungen nicht einbrechen wird wie bei der 9800GTX. Dann noch n gutes Stück schneller ist doch schonmal was.
Im November kommt dann bestimm ne Ultra mit G200b (55nm) + GDDR5 und viel höheren Takraten.
Im November kommt dann bestimm ne Ultra mit G200b (55nm) + GDDR5 und viel höheren Takraten.
D34th_0f_4LL
Lt. Commander
- Registriert
- Apr. 2005
- Beiträge
- 1.906
896MB und 448 bit ... sonstige Probleme haben die ja net mehr da..
Dann wär ja bald alles in 128er Schritten abgeklappert.
128MB, 256MB,
384MB (9600GSO, 8800GS)
512MB
640MB 88GTS G80
768MB
896MB
1024MB
Hey, die 640er GTS gabs doch auch mit 320MB vllt gibts die hier ja auch mit 448MB
Langsam wirds für Laien echt undurchsichtig xD
Dann wär ja bald alles in 128er Schritten abgeklappert.
128MB, 256MB,
384MB (9600GSO, 8800GS)
512MB
640MB 88GTS G80
768MB
896MB
1024MB
Hey, die 640er GTS gabs doch auch mit 320MB vllt gibts die hier ja auch mit 448MB
Langsam wirds für Laien echt undurchsichtig xD
feldwebel-Chief
Lieutenant
- Registriert
- Jan. 2007
- Beiträge
- 526
Dennoch soll sie in Sachen Grafikleistung nicht an ihre R700-Konkurrenten herankommen.
wenns stummt sag ich haha nvidia
Zuletzt bearbeitet:
Karambakevin
Lt. Commander
- Registriert
- Dez. 2007
- Beiträge
- 1.205
die g280gtx könnte evtl. meine anschaffung an weihnachten sein. oder wenn die preise in den angenehmeren bereich fallen. bruach ja noch en wakühler dafür^^
denn gta möchte ich in vollen zügen genießen
denn gta möchte ich in vollen zügen genießen
cosmicparty
Banned
- Registriert
- Aug. 2007
- Beiträge
- 843
also, mal n bissle rechnen
die 280 soll ja 50% schneller sein als ne 9800GTX.
die 280 soll 25% schneller sein als die 260.
also ist die GTX260 ungefähr auf niveau ner 4870.
kostet aber viel mehr. 65nm riesenchip mit schlechter yieldrate herstellen ist eben teuer.
also ich denke der sommer gehört ati und gegen die 4870x2 wird die GTX280 wohl kein land sehen.
die x2 dürfte dann mindestens 25% schneller als die GTX 280 werden.
nvidia hat sich mit dem monsterchip verrannt und es wird auch n grund haben, warum nvidia nun sagte, der g200 wird der letzte riesenchip seiner art, danach wolle man auch den weg von ati gehen.
nun versteht man auch, warum ati schon vor wochen sagte, man rechne im sommer mit stark ansteigendem marktanteil. zu dem zeitpunkt haben noch die meisten gelacht.
aber so wirds kommen.
die 280 soll ja 50% schneller sein als ne 9800GTX.
die 280 soll 25% schneller sein als die 260.
also ist die GTX260 ungefähr auf niveau ner 4870.
kostet aber viel mehr. 65nm riesenchip mit schlechter yieldrate herstellen ist eben teuer.
also ich denke der sommer gehört ati und gegen die 4870x2 wird die GTX280 wohl kein land sehen.
die x2 dürfte dann mindestens 25% schneller als die GTX 280 werden.
nvidia hat sich mit dem monsterchip verrannt und es wird auch n grund haben, warum nvidia nun sagte, der g200 wird der letzte riesenchip seiner art, danach wolle man auch den weg von ati gehen.
nun versteht man auch, warum ati schon vor wochen sagte, man rechne im sommer mit stark ansteigendem marktanteil. zu dem zeitpunkt haben noch die meisten gelacht.
aber so wirds kommen.
CH-PCFreak
Cadet 2nd Year
- Registriert
- März 2008
- Beiträge
- 20
Mich interessieren eigentlich vor allem die Quadro-Grafikkarten. Weiss man bereits etwas konkretes darüber, wann solche mit der neuen Architektur erhältlich sein werden?
Es gibt ja auch noch Leute die den PC nicht nur zum gamen brauchen...
Gruss CH-PCFreak
Es gibt ja auch noch Leute die den PC nicht nur zum gamen brauchen...
Gruss CH-PCFreak
Karambakevin
Lt. Commander
- Registriert
- Dez. 2007
- Beiträge
- 1.205
´wenn von den neuen karten mal tests da sind kann man da gut entscheiden. am liebsten will ich auch wieder eine ati da das CCC einfach besser ist und es auch regelmäßig treiberupdates gibt.
Davon bin ich auch mal ausgegangen. Wenn die Daten jedoch den finalen Specs entsprechen, bin ich mir da gar nicht mehr so sicher. Zumindest was die GTX 260 betrifft. Der Shadertakt ist doch arg niedrig. Auch der Chiptakt wurde zurückgeschraubt. Eine Masznahme wegen der ohnehin schon ziemlich hohen Leistungsaufnahme? Mit der X2 sollte ATI jedenfalls mehr als eine passende Antwort für die Leistungskrone parat haben.NiK schrieb:Gut, die Frage ist halt ob die ATIs auch von der Leistung mithalten werden, dass glaub ich nämlich noch nicht so ganz...
matti30
Captain
- Registriert
- Juli 2007
- Beiträge
- 3.223
Letztenendes wird also wieder der Preis entscheiden. Ich werd, wie Karambakevin erstmal abwarten, bis die Preise ordentlich fallen, solange tuts meine Gt auch und auch mir dürfte sich dann die Frage eines Wasserkühlers stellen, viell. gibts bis Weihnachten aber auch welche, die das din mit vormontiertem Kühler anbieten.
Cb, testen ^^ Die nächsten beiden Monate werden heiß, was den Grafikkartenmarkt betrifft
Mfg Matti
Cb, testen ^^ Die nächsten beiden Monate werden heiß, was den Grafikkartenmarkt betrifft
Mfg Matti
Nikuman
Commander
- Registriert
- Juni 2007
- Beiträge
- 2.297
CHB68 schrieb:Hast Du keinen Bekannten in den Staaten ? 600 USD sind im Moment 380,95 €....
Nur schade das bei Grafikkarten meist 1 zu 1 umgerechnet wird weshalb die karte hier trotzdem über 500euro zu beginn kosten wird.
Der Stromverbrauch ist ganz schön traurig, wenn man bedenkt das die hd4870 max 160watt verbraucht aber dafür ein top stromsparmodus hat und die leistung auch nicht soweit unter der 280gtx sein dürfte.
Mal schaun wie sich die hd4870x2 gegen die gtx280 schlagen wird die beim stromverbrauch ca 15watt höher liegt als die gtx280 aber immernoch nen stromsparmodus hat.
Ich nehm an das Ati mit der 4870x2 den Sieg davon trägt. Und Nvidia erst was dagegen unternehmen kann wenn sie auf 55nm umsteigen.
Kivi 123
Lt. Commander
- Registriert
- Mai 2007
- Beiträge
- 1.487
Ich glaub auch das ATI jetzt mehr Verdient. Obwohl NVidias Daten sehr schön ausschauen. Nur das Problem ist echt der gigantische Verbrauch. Und warscheinlich wird die Karte dann auch noch warm oder? Aber wir sind ja zurzeit das ganze Nvidia Chaos gewöhnt
Ich hoffe doch dass ATI oder Nvidia eine gute karte bis 200€ bringt die Full HD gut darstellen kann. Auf sowas warte ich
Mfg Kivi
Ich hoffe doch dass ATI oder Nvidia eine gute karte bis 200€ bringt die Full HD gut darstellen kann. Auf sowas warte ich
Mfg Kivi
Visualist
Lt. Commander
- Registriert
- Feb. 2006
- Beiträge
- 1.734
@cosmicparty
Der GTX 280 Chip wird wohl er eine Gx2 mit bis zu 50% niedermachen als eine 9800Gtx .
Den wir wissen ja alle die 2*128 Shader der Gx2 können sehr schlecht zu 100% skalieren genauso wie bei einer Hd X2.
DIe Gtx 280 hat 80% Mehr Shaderleistung und 60%mehr Bandbreite als eine 8800gtx.
Zudem kommt noch das die Shader Pro Zyklus schneller sein soll .
Und dafür wird der Maximal Stromverbrauch gerechtfertigt sein.
Hoffe auch auf einen 2 D Sparmodus.
Immer diese Vermutungen.
http://www.hardware-infos.com/news.php?news=2091
Mfg
Der GTX 280 Chip wird wohl er eine Gx2 mit bis zu 50% niedermachen als eine 9800Gtx .
Den wir wissen ja alle die 2*128 Shader der Gx2 können sehr schlecht zu 100% skalieren genauso wie bei einer Hd X2.
DIe Gtx 280 hat 80% Mehr Shaderleistung und 60%mehr Bandbreite als eine 8800gtx.
Zudem kommt noch das die Shader Pro Zyklus schneller sein soll .
Und dafür wird der Maximal Stromverbrauch gerechtfertigt sein.
Hoffe auch auf einen 2 D Sparmodus.
Immer diese Vermutungen.
http://www.hardware-infos.com/news.php?news=2091
Mfg
Zuletzt bearbeitet:
cosmicparty
Banned
- Registriert
- Aug. 2007
- Beiträge
- 843
@ visualist:
der vorgänger, sprich chipvorgänger ist aber nun mal die 9800GTX.
wenn man also von 50% steigerung gegenüber dem vorgänger spricht, ist die singlechipleistung gemeint, keine sli-lösung.
das ding wird nicht so flott, wie viele dachten, ganz einfach, weils so ein riesenchip ist, den man wohl nicht mehr so hoch takten kann, bevor er "verglühen" würde bzw der stromverbrauch astronomisch wird.
240 watt ist ja eh schnon mal n wort, weiter kann nvidia da wohl nicht gehen.
wird n grund haben, warum sich nvidia mit dem g200 von den monsterchips trennen will und den weg von ati einschlagen will. die dinger sind einfach am ende, mehr geht net mehr.
der vorgänger, sprich chipvorgänger ist aber nun mal die 9800GTX.
wenn man also von 50% steigerung gegenüber dem vorgänger spricht, ist die singlechipleistung gemeint, keine sli-lösung.
das ding wird nicht so flott, wie viele dachten, ganz einfach, weils so ein riesenchip ist, den man wohl nicht mehr so hoch takten kann, bevor er "verglühen" würde bzw der stromverbrauch astronomisch wird.
240 watt ist ja eh schnon mal n wort, weiter kann nvidia da wohl nicht gehen.
wird n grund haben, warum sich nvidia mit dem g200 von den monsterchips trennen will und den weg von ati einschlagen will. die dinger sind einfach am ende, mehr geht net mehr.
Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- Beiträge
- 24.306
ich glaube nicht das man einen 2d Stromsparmodus wirklich sehen wird... Leistung scheint gut, vermutlich verhindert die TDP noch höhere Taktraten. Hier hoffe ich auf VMod + Wakü - dann sind 300-400 W sicher schnell drin ^^
Richtig lustig wirds aber wohl erst in Verbindung mit Hybrid-Power. Dann kann man übertakten wie man will und die Leistungsaufnahme in Idle ändert sich nicht. Nvida wird mit fehlender Stromspartechnologie den Verkauf von eigenen Chipsatzen ankurbeln.
Hier hat AMD nen klaren Vorteil. Würde AMD einen Monsterchip bringen und gleichzeitig die Top Stromsparmodi integrieren täte das dem Ruf und dem Verkauf sicher gut. Ich kann fast nich glauben dass der Verzicht auf den High End Sektor wirklich gut gehen kann. Bin vorallem auf die Leistung der 4870 im Vergleich zur 260er Geforce gespannt.
Das Multi GPU Zeug sollte man eig erst angehen sobald Speichermanagemant- Problem und Microruckler beseitigt sind.
Richtig lustig wirds aber wohl erst in Verbindung mit Hybrid-Power. Dann kann man übertakten wie man will und die Leistungsaufnahme in Idle ändert sich nicht. Nvida wird mit fehlender Stromspartechnologie den Verkauf von eigenen Chipsatzen ankurbeln.
Hier hat AMD nen klaren Vorteil. Würde AMD einen Monsterchip bringen und gleichzeitig die Top Stromsparmodi integrieren täte das dem Ruf und dem Verkauf sicher gut. Ich kann fast nich glauben dass der Verzicht auf den High End Sektor wirklich gut gehen kann. Bin vorallem auf die Leistung der 4870 im Vergleich zur 260er Geforce gespannt.
Das Multi GPU Zeug sollte man eig erst angehen sobald Speichermanagemant- Problem und Microruckler beseitigt sind.
Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- Beiträge
- 24.306
Nehebkau schrieb:Sind die Taktraten nicht etwas tief? Ich dachte nVidia setzt wieder auf GDDR3 Ram... da würden sie den doch nicht langsamer takten als bisher oder????
wieso, 900 = 1800Mhz bei der 260er und 1100= 2200 bei der 280er, Taktraten was den Speicher angeht sind genauso hoch wie bei den Vorgängern.
Ähnliche Themen
- Antworten
- 10
- Aufrufe
- 3.239
- Antworten
- 51
- Aufrufe
- 9.411
- Antworten
- 85
- Aufrufe
- 10.656
- Antworten
- 112
- Aufrufe
- 9.168
- Antworten
- 105
- Aufrufe
- 10.290