Hallo, schade dass der Stromverbrauch so hoch ausfällt. Da möchte ich doch auf die 55 nm Variante warten und hoffen, dass die mit dem Stromverbrauch unseren Klimabedingungen gerechter wird. „Effektive Windows-Stromsparfunktion“ in diesem Kasten fehlt leider etwas und zwar ohne, das ich mir schon wieder ein neues Motherboard kaufen muss.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Finale Taktraten der GeForce GTX 280/GTX 260?
- Ersteller Wolfgang
- Erstellt am
- Zur News: Finale Taktraten der GeForce GTX 280/GTX 260?
Serious Sam
Lt. Commander
- Registriert
- Juni 2006
- Beiträge
- 1.691
Verbraucht die 260 genauso 236W wie die 280?
Ansonsten sind sie ja net grad billig und wo ist der Hybrid-Modus?
Ansonsten sind sie ja net grad billig und wo ist der Hybrid-Modus?
Nee, der GTX 260 ist mit 182W angegeben.
http://www.partypicssaarland.de/include.php?path=galerie/pic.php&pid=270
http://www.partypicssaarland.de/include.php?path=galerie/pic.php&pid=270
cyrezz
Rear Admiral
- Registriert
- Jan. 2004
- Beiträge
- 5.416
@Serious Sam
Wer lesen kann, ist klar im Vorteil. Das steht doch im Text.
Wer lesen kann, ist klar im Vorteil. Das steht doch im Text.
Die Grafikkarte soll ebenfalls 28 cm lang werden, die Leistungsaufnahme aber auf 182 Watt fallen.
Vulture_Culture
Lt. Commander
- Registriert
- Jan. 2008
- Beiträge
- 1.307
Die Taktraten sind (komischerweise) etwas gering. Ich hab KA aber war das bei NV schon immer so?
Warum steigt Nvidia nicht auch auf einen GDDR5 Speicher um? Sinnvoll wäre das ja bei einem Speicherinterface von 512. Der Preis wird (bestimmt) wieder übel hoch.
Warum steigt Nvidia nicht auch auf einen GDDR5 Speicher um? Sinnvoll wäre das ja bei einem Speicherinterface von 512. Der Preis wird (bestimmt) wieder übel hoch.
mat_2
Rear Admiral
- Registriert
- Sep. 2006
- Beiträge
- 5.597
Warum steigt Nvidia nicht auch auf einen GDDR5 Speicher um?
Kostet Geld und ist nicht nötig - die Leistung wird sowieso wieder brachial, die Konkurrenz ausgestochen.
Naja, 65nm, die werden teils schon auf 750-800 MHz GPU Takt gehen .
Magellan
Fleet Admiral
- Registriert
- Apr. 2006
- Beiträge
- 22.679
Ob die 260 wirklich diesen preis halten kann? Dazu müsste sie ja schon eine ganze nummer schneller seina ls die 100$ niedriger angesetzte HD 4870. Dazu müsste der GT200 schon einiges an architekturverbesserungen bringen, denn allein durch die geringfügige erhöhung der jeweiligen einheiten sehe cih einen solchen performancesprung eher nicht.
Gerade bei 512bit ist es eben NICHT sinnvoll - nvidia erhöht die bandbreite durch ein breiteres interface, ati erhöht sie durch schnelleren speicher, beides in kombination ergäbe eine völlig überdimensionierte Speicherbandbreite die keinerlei nutzen bringt und nur mehrkosten verursacht.
Vulture_Culture schrieb:Warum steigt Nvidia nicht auch auf einen GDDR5 Speicher um? Sinnvoll wäre das ja bei einem Speicherinterface von 512.
Gerade bei 512bit ist es eben NICHT sinnvoll - nvidia erhöht die bandbreite durch ein breiteres interface, ati erhöht sie durch schnelleren speicher, beides in kombination ergäbe eine völlig überdimensionierte Speicherbandbreite die keinerlei nutzen bringt und nur mehrkosten verursacht.
Zuletzt bearbeitet:
mat_2
Rear Admiral
- Registriert
- Sep. 2006
- Beiträge
- 5.597
denn allein durch die geringfügige erhöhung der jeweiligen einheiten sehe cih einen solchen performancesprung eher nicht.
Und wodurch dann ? Die Leistung des G92 ist schon sehr gut, einzig die Bandbreite limitiert - die GTX 280 hat beinahe die doppelte Shaderleistung und doppelte Bandbreite als der G92...
ich denke das ATI diesmal richtig abräumen kann, technisch sind die neuen HD 4000 karten spitze, bei den Nvidia modellen ist es so, das die leistungskrone erobert wurde nicht mehr und nicht weniger, technisch haben sie weit weniger zu bieten kein DX 10.1 kein Powerplay (stromsparfunktionen), zumindest wurde dies noch nicht bestätigt trotz eines verbrauches von 236 watt^^, teuer sind sie auch noch ohne ende 600 dollar... die karten werden sich wohl >1% der freaks holen, die "vernünftigen leute" die werden überwiegend zu den HD 4000 modellen greifen, da sie schnell bzw unter 200 € (229$ HD 4850) kosten werden. Hut ab ATI nach jahren mal wieder was richtig gescheites auf den markt gebracht, hoffe AFAA-Leistung bleibt auch stark!
Kottenpipel
Lt. Commander
- Registriert
- Apr. 2008
- Beiträge
- 1.186
Diese Karte ist ein Monster mehr lässt sich da nicht sagen.
Visualist
Lt. Commander
- Registriert
- Feb. 2006
- Beiträge
- 1.734
@Kottenpipel
100% Monster Graka.
Noch ein wenig zum lesen
http://www.hardware-infos.com/news.php?news=2092
Mfg
100% Monster Graka.
Noch ein wenig zum lesen
http://www.hardware-infos.com/news.php?news=2092
Mfg
Zuletzt bearbeitet:
Unyu
Banned
- Registriert
- Okt. 2004
- Beiträge
- 6.891
Warum komisch?Vulture_Culture schrieb:Die Taktraten sind (komischerweise) etwas gering.
Mehr Transitoren als bisher, weiterhin 65nm, wie soll man diesen Chip plötzlich so hoch takten können? Wunder?
Nur weil AMD einen winzigen 55nm Chip höher takten kann, kann man so ein 65nm Monster nicht auch gleich so hoch takten.
Ironie?NoD.sunrise schrieb:denn allein durch die geringfügige erhöhung der jeweiligen einheiten sehe cih einen solchen performancesprung eher nicht.
Allein von den Daten ownt die GTX 260 eine 9800GTX mächtig weg.
cosmicparty
Banned
- Registriert
- Aug. 2007
- Beiträge
- 843
@ unyu:
bissle erschockt über die doch ernüchternmden werte?
takt ist nun auch mal wichtig, aber diesen monsterstrombeißer kann man wohl nicht höher kriegen, ganz im gegenteil, wird ne ecke niedriger getaktet als ne 9800GTX.
nvidia hatte sich auch mehr erhofft, aber dann bleibts eben bei ner steigerung von 50% gegenüber ner 9800 GTX. wird ja auch "nur" 600$ kosten *g*
da kauf ich mir doch ne 4870 mit gddr5 für 329$ und bin 25% schneller als ne 9800GTX, wohl auf GTX260 niveau, die auch immerhin 450$ kostet.
der g200 ist n griff ins klo, ist nun mal so und die 280er kaufen sich keine 2% der zocker. ist eher was für ne freakshow der ungeküssten *ggg*
zu teuer, zu lahm fürs geld und zu hoher stromverbrauch... ach ja und von dx10.1 haben die auch noch nie was gehört und wird bestimmt määäächtig heiß.
bissle erschockt über die doch ernüchternmden werte?
takt ist nun auch mal wichtig, aber diesen monsterstrombeißer kann man wohl nicht höher kriegen, ganz im gegenteil, wird ne ecke niedriger getaktet als ne 9800GTX.
nvidia hatte sich auch mehr erhofft, aber dann bleibts eben bei ner steigerung von 50% gegenüber ner 9800 GTX. wird ja auch "nur" 600$ kosten *g*
da kauf ich mir doch ne 4870 mit gddr5 für 329$ und bin 25% schneller als ne 9800GTX, wohl auf GTX260 niveau, die auch immerhin 450$ kostet.
der g200 ist n griff ins klo, ist nun mal so und die 280er kaufen sich keine 2% der zocker. ist eher was für ne freakshow der ungeküssten *ggg*
zu teuer, zu lahm fürs geld und zu hoher stromverbrauch... ach ja und von dx10.1 haben die auch noch nie was gehört und wird bestimmt määäächtig heiß.
machiavelli1986
Commander
- Registriert
- Feb. 2008
- Beiträge
- 2.658
Auf Gameswelt hab ich gelesen das die Karten nur 26.7cm sein sollen.Somit kürzer als aktuelle High-End Karten. Was nun?
Sebastian
Vice Admiral
- Registriert
- Apr. 2004
- Beiträge
- 6.273
luno89 schrieb:Ist dieser kleine Chip in der Nähe der DVI-Anschlüsse der PhysX-Chip?
Oder ist der in der GPU integriert?
BulletHunter69 schrieb:der kleine Chip regelt SLI, soweit ich das mitbekommen hab?
Der zusätzliche Chip müsste ein NVIO-Chip sein. Der war zuletzt auf den G80-Karten zu sehen und ist zuständig für Ein- und Ausgangssignale sowie SLI bzw. Triple-SLI. PhysX wird über CUDA mit der GPU berechnet.HOT schrieb:Das wird ein RAMDAC sein, den hatte man beim G80 ja auch nicht integriert. SLI ist ja im Grunde nichts weiter als ein PCIe Anschluss mehr, der sitzt aber auf jeden Fall im Chip selber. PhysX-Code wird mit der brachialen Leistung auf der GPU berechnet werden.
drago-museweni
Admiral
- Registriert
- März 2004
- Beiträge
- 9.201
Alter Schwede die Daten der GTX280 sind schon beeindruckend, wenn diese dann wirklich soviel mehrleistung hatt, aber der Preis ist ganzschön happig ebenso der Stromvebrauch liegt jenseits von gut und Böse.
Ob alles wirlich so kommt werden wir bald sehen.
@machiavelli1986 13mm machen das Kraut nicht fett.
Ob alles wirlich so kommt werden wir bald sehen.
@machiavelli1986 13mm machen das Kraut nicht fett.
Zuletzt bearbeitet:
Unyu
Banned
- Registriert
- Okt. 2004
- Beiträge
- 6.891
Toll.cosmicparty schrieb:da kauf ich mir doch ne 4870 mit gddr5 für 329$ und bin 25% schneller als ne 9800GTX
Und dann kaufe ich eben eine 9800 Ultra auf G92b Basis, bin 3% langsamer als die 4870 unterwegs, zahle dafür 229$.
Scheint mir, als ob du meinen Beitrag und das G92b Thema nicht gelesen hast.
Falsch, erheblich angsamer.cosmicparty schrieb:wohl auf GTX260 niveau, die auch immerhin 450$ kostet.
"Just wait until June 17th when the newest series of GeForce GPU's launch, and you'll start asking yourself when you last witnessed such a dramatic technology improvement. If you thought the GeForce 8 series blew the 7-series out of the water, this is going to leave you in shock. That's not my own marketing spin... Benchmark Reviews is presently testing the new GeForce video card."
Zuletzt bearbeitet:
Ähnliche Themen
- Antworten
- 10
- Aufrufe
- 3.239
- Antworten
- 51
- Aufrufe
- 9.411
- Antworten
- 85
- Aufrufe
- 10.656
- Antworten
- 112
- Aufrufe
- 9.168
- Antworten
- 105
- Aufrufe
- 10.290