Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Bericht Vorschau: Nvidia GeForce GTX 285
- Ersteller Wolfgang
- Erstellt am
- Zum Artikel: Vorschau: Nvidia GeForce GTX 285
C
captain carot
Gast
Die Massen an Käufern, die davon ausgehen werden, dass eine GTX 285 eben besser ist als eine 280.
Abgesehen davon wäre noch abzuwarten, wie es um die Leistungsaufnahme steht.
Abgesehen davon wäre noch abzuwarten, wie es um die Leistungsaufnahme steht.
Kriegsgeier
Banned
- Registriert
- Juni 2006
- Beiträge
- 863
ja, genau die Leistungsaufname ist für viele Nutzer wichtig. Und wenn die GTX285 sich mit satten 50 Watt weniger begnügen wird, bin ich bereit 20€ mehr zu zahlen.
Also höchstens 360€, mehr nicht. das ist meine Schmertzgrenze.
Also höchstens 360€, mehr nicht. das ist meine Schmertzgrenze.
Schinzie
Rear Admiral
- Registriert
- Feb. 2008
- Beiträge
- 5.955
wenn sie es wirklich hinkriegen bei gesteigerter leistung einen verbrauchsärmere, kühlere und damit leisere karte hinzukriegen wäre das wirklich eine verdammt gute leistung, und vor allem für den angepeilten preis von 350-380 euro eine verdammt interessante karte. allerdings rechne ich fast damit,dass sie anfangs über 400 kosten wird.
zudem wird sie,wenn sie wirklich kühler und verbrauchsärmer wird, auch weniger an leckströmen zu kämpfen haben, und somit noch taktfreudiger auf übertaktung reagieren.
aber nette idee mit dem "simuliertem" test^^
gruß
zudem wird sie,wenn sie wirklich kühler und verbrauchsärmer wird, auch weniger an leckströmen zu kämpfen haben, und somit noch taktfreudiger auf übertaktung reagieren.
aber nette idee mit dem "simuliertem" test^^
gruß
mmic29
Admiral
- Registriert
- Okt. 2005
- Beiträge
- 7.646
Wie zu erwarten war, die knappen 10% Mehrperformance zur GTX280@stock. Kann aber auch jeder GTX280-Besitzer simulieren .
Wenn allerdings die Wärmeentwicklung und der Stromverbrauch stimmen sollten, ein netter und würdiger "Nachfolger" der GTX280.
Mfg
Wenn allerdings die Wärmeentwicklung und der Stromverbrauch stimmen sollten, ein netter und würdiger "Nachfolger" der GTX280.
Mfg
U
user_deleted_9
Gast
Sorry aber dieser Test ist mehr oder weniger Quatsch!
1. Eine übertaktete GTX280 ist kein Vergleichswert,
2. Man sollte gtx280 auf Taktraten-Niveau der GTX285 halten...
3. Die Taktraten sind doch noch unbekannt...
4. Ne GTX285 ist ne überarbeitete GT200 GPU die ganz anders reagiert und arbeiten wird...
Sorry aber man muss manchmal Kritik ertragen können...
P.S. Ich wette ich kriege ne Verwarnung xD
Ich freu mich schon auf die Verwarnung... Dafür das ich ne Meinung habe
1. Eine übertaktete GTX280 ist kein Vergleichswert,
2. Man sollte gtx280 auf Taktraten-Niveau der GTX285 halten...
3. Die Taktraten sind doch noch unbekannt...
4. Ne GTX285 ist ne überarbeitete GT200 GPU die ganz anders reagiert und arbeiten wird...
Sorry aber man muss manchmal Kritik ertragen können...
P.S. Ich wette ich kriege ne Verwarnung xD
Ich freu mich schon auf die Verwarnung... Dafür das ich ne Meinung habe
Zuletzt bearbeitet von einem Moderator:
r4yn3
Admiral
- Registriert
- Mai 2006
- Beiträge
- 7.695
Omg? Wenn Kritik, dann wohl bei dir. Was du meinst ist wohl die Dual-GPU Karte mit dem Namen GTX295...die GTX285 IST "nur" eine Übertaktete Version, von dem her ist die Vorschau mehr als gerechtfertigt...
E: Zumindest editiert, dennoch völliger humbug wie BobbyBest richtig feststellt.
E: Zumindest editiert, dennoch völliger humbug wie BobbyBest richtig feststellt.
Zuletzt bearbeitet:
BobbyBest
Lt. Commander
- Registriert
- Mai 2008
- Beiträge
- 1.534
Man kann also auf einmal eine manuell übertaktete Karte nicht mit einer werksübertakteten vergleichen, naja wenn das so ist...Eine übertaktete GTX280 ist kein Vergleichswert,
Erste Seite gelesen?Man sollte gtx280 auf Taktraten-Niveau der GTX285 halten...
Die Taktraten sind doch noch unbekannt...
Ne GTX285 ist ne überarbeitete GT200 GPU die ganz anders reagiert und arbeiten wird...
Genau eine GTX260 55nm reagiert auch anders als eine 65nm-Version.
Die neue wird bei Last nämlich blau...
Kriegsgeier
Banned
- Registriert
- Juni 2006
- Beiträge
- 863
Juuuungs! Abwarten und Tee trinken!
Wir sind alle angespannt und kochen vor Wut, das ist normal, das ist menschlich.
Ich bin auch schon seit ein paar Tagen auf der Palme da ich auch wie ihr ungeduldig bin! Aber das ist ein Marketingtrick der uns beherscht. Ist von Nvidia gewollt....
Wir sind alle angespannt und kochen vor Wut, das ist normal, das ist menschlich.
Ich bin auch schon seit ein paar Tagen auf der Palme da ich auch wie ihr ungeduldig bin! Aber das ist ein Marketingtrick der uns beherscht. Ist von Nvidia gewollt....
Kunibert_KA
Cadet 3rd Year
- Registriert
- Sep. 2005
- Beiträge
- 58
NIDIA ist halt Preislich unter Druck geraten.
Vor allem die 260er hat/hatte keinen ausreichenden Leistungsvorteil um 100€+ mehr kosten zu dürfen. NVIDIA musste also handeln.
Im ersten Schritt haben sie die 260er etwas in der Leistung verbessert in dem sie sie der 280er angenähert haben.
Der zweite Schritt ist jetzt so stark wie irgend möglich die Kosten zu senken um profitabler zu werden. Dazu wurde unter anderem folgendes gemacht:
- Shrink um mehr Kerne pro Wafer zu erhalten und dann die Ausbeute zu erhöhen
- billigeres Board. Vereinfachte Stromversorgung, einfachere Kühlung, usw.
Das Ziel war Kosten sparen und nicht geringerer Verbrauch oder gesteigerte Performance.
Das die Temperatur nicht gesunken ist liegt wohl daran das eben nicht darauf optimiert wurde und die (geringen) Vorteile des Shrinks durch den geänderten Kühler aufgefressen werden. Selbes gilt wohl auch für den Verbrauch. Nicht drauf optimiert und die Vorteile des Shrinks werden durch das einfachere Board zu nichte gemacht?
Der dritte Schritt dürfte die 285er sein. Hier soll wieder mehr Abstand zu den anderen Karten gewonnen werden um den höheren Preis zu rechtfertigen.
Da die 285er und die 260/55 den selben Kern haben kann man davon ausgehen das sich bei der 285er auch nichts an interner Performance getan hat, sowie das sie auch nicht viel sparsamer sein wird.
Da die 285er höher getaktet ist, könnte es sogar sein das sie unter Last wärmer wird (je nach Änderungen der Kühlung) bzw. das sie auch einen geringfügig höheren Verbrauch hat.
Im Idle könnte der Verbrauch sinken, aber unter Last würde ich das nicht erwarten.
Die Frage wird sein wie sich die 55er Strukturgröße takten lässt. Dadurch das die Wärme jetzt auch einem kleineren Die entsteht, kann es auch schlechter sein.
Vor allem die 260er hat/hatte keinen ausreichenden Leistungsvorteil um 100€+ mehr kosten zu dürfen. NVIDIA musste also handeln.
Im ersten Schritt haben sie die 260er etwas in der Leistung verbessert in dem sie sie der 280er angenähert haben.
Der zweite Schritt ist jetzt so stark wie irgend möglich die Kosten zu senken um profitabler zu werden. Dazu wurde unter anderem folgendes gemacht:
- Shrink um mehr Kerne pro Wafer zu erhalten und dann die Ausbeute zu erhöhen
- billigeres Board. Vereinfachte Stromversorgung, einfachere Kühlung, usw.
Das Ziel war Kosten sparen und nicht geringerer Verbrauch oder gesteigerte Performance.
Das die Temperatur nicht gesunken ist liegt wohl daran das eben nicht darauf optimiert wurde und die (geringen) Vorteile des Shrinks durch den geänderten Kühler aufgefressen werden. Selbes gilt wohl auch für den Verbrauch. Nicht drauf optimiert und die Vorteile des Shrinks werden durch das einfachere Board zu nichte gemacht?
Der dritte Schritt dürfte die 285er sein. Hier soll wieder mehr Abstand zu den anderen Karten gewonnen werden um den höheren Preis zu rechtfertigen.
Da die 285er und die 260/55 den selben Kern haben kann man davon ausgehen das sich bei der 285er auch nichts an interner Performance getan hat, sowie das sie auch nicht viel sparsamer sein wird.
Da die 285er höher getaktet ist, könnte es sogar sein das sie unter Last wärmer wird (je nach Änderungen der Kühlung) bzw. das sie auch einen geringfügig höheren Verbrauch hat.
Im Idle könnte der Verbrauch sinken, aber unter Last würde ich das nicht erwarten.
Die Frage wird sein wie sich die 55er Strukturgröße takten lässt. Dadurch das die Wärme jetzt auch einem kleineren Die entsteht, kann es auch schlechter sein.
Kriegsgeier
Banned
- Registriert
- Juni 2006
- Beiträge
- 863
richtige Beurteilung!
r4yn3
Admiral
- Registriert
- Mai 2006
- Beiträge
- 7.695
Marketingtrick? Das ich nicht lache...
Bei der GTX285 ists ja noch nicht sicher inwiefern sich der Stromverbrauch verhält...die 10% Mehrleistung sollten aber bestätigt sein.
Dennoch, 10W mehr, bei gleicher Leistung und vermutlich auch gleichem Preis KANN man nicht gut heißen.
Zudem, was heißt nich optimiertes Board? Soll es jetz auch noch Unterschiede in der Verlustleistung zw den Boardpartnern geben? Das wär arm.
E: Woher kommen sonst die Gerüchte "Ihr maximaler Stromhunger würde sich von 236 auf 183 Watt senken, womit statt eines Acht- und Sechs-pin-Stromanschlusses nur zwei Sechs-Pin-Pipelines ausreichen würden."
Hört man ja auch schon öfter...
Klar bei der GTX285 sind die Chips voll funktionfähig und bei der GTX260 leicht defekt. Dennoch keine Rechtfertigung in 10W Mehrverbrauch. Wie gesagt, mir stinkt da was.
Bei der GTX285 ists ja noch nicht sicher inwiefern sich der Stromverbrauch verhält...die 10% Mehrleistung sollten aber bestätigt sein.
Dennoch, 10W mehr, bei gleicher Leistung und vermutlich auch gleichem Preis KANN man nicht gut heißen.
Zudem, was heißt nich optimiertes Board? Soll es jetz auch noch Unterschiede in der Verlustleistung zw den Boardpartnern geben? Das wär arm.
E: Woher kommen sonst die Gerüchte "Ihr maximaler Stromhunger würde sich von 236 auf 183 Watt senken, womit statt eines Acht- und Sechs-pin-Stromanschlusses nur zwei Sechs-Pin-Pipelines ausreichen würden."
Hört man ja auch schon öfter...
Klar bei der GTX285 sind die Chips voll funktionfähig und bei der GTX260 leicht defekt. Dennoch keine Rechtfertigung in 10W Mehrverbrauch. Wie gesagt, mir stinkt da was.
Zuletzt bearbeitet:
Kriegsgeier
Banned
- Registriert
- Juni 2006
- Beiträge
- 863
Ich möchte hier die NVIDIA nicht verteidigen, aber es ist von dem System in dem wir leben vorgegeben, dass es leidergottes in erster Linie um die Gewinnmaximierung geht!
Es sind solche Systeme wie Zinssysteme (Verschuldungen), die unsere Gesellschaft von innen auffrisst. Klar, dass die Qualität und Kundenfreundlichkeit dann Platz machen müssen.
Daher geht es leider auch bei NVIDIA in letzter Zeit nur um das Geld!
Deswegen bin ich mal gespannt was da auf uns zukommt, will ja schliesslich eine GTX285 kaufen...
in diesem Sinne....
Es sind solche Systeme wie Zinssysteme (Verschuldungen), die unsere Gesellschaft von innen auffrisst. Klar, dass die Qualität und Kundenfreundlichkeit dann Platz machen müssen.
Daher geht es leider auch bei NVIDIA in letzter Zeit nur um das Geld!
Deswegen bin ich mal gespannt was da auf uns zukommt, will ja schliesslich eine GTX285 kaufen...
in diesem Sinne....
Zuletzt bearbeitet:
scully1234
Banned
- Registriert
- März 2008
- Beiträge
- 854
Volker schrieb:@ unter mir: Wozu die CPU tauschen. Der QX9770 ist schon bei 3,2, aber erst recht bei bei 4 GHz der schnellste Prozessor für Spiele. Da kommt kein Nehalem ran.
Wie kommst du zu dieser schlussfolgerung volker
Schonmal HT deaktiviert beim nehalem bei nicht threadoptimierten spielen.
Zuletzt bearbeitet:
r4yn3
Admiral
- Registriert
- Mai 2006
- Beiträge
- 7.695
@scully: Grob geschätzt
https://www.computerbase.de/artikel...test.895/seite-25#abschnitt_performancerating
Wies mit deaktivierten HT aussieht kann ich aber auch nicht sagen.
https://www.computerbase.de/artikel...test.895/seite-25#abschnitt_performancerating
Wies mit deaktivierten HT aussieht kann ich aber auch nicht sagen.
scully1234
Banned
- Registriert
- März 2008
- Beiträge
- 854
r4yn3 schrieb:@scully: Grob geschätzt
https://www.computerbase.de/artikel...test.895/seite-25#abschnitt_performancerating
Wies mit deaktivierten HT aussieht kann ich aber auch nicht sagen.
Deshalb hab ich ja extra auf deaktivierung von HT hingewiesen.Das ist bei "älteren" spielen zum teil die bremse beim nehalem.Mit der nächsten spielegeneration wird das sowieso hinfällig sein
Da ja nun beide amd sowie auch intel native quad cores im rennen haben u sich die spieleentwickler darauf einstellen können u müssen.
Zuletzt bearbeitet:
scully1234
Banned
- Registriert
- März 2008
- Beiträge
- 854
r4yn3 schrieb:Naja, sagen wir mal eher sie sollten sich darauf einstellen
Warum den vorteil nicht nutzen so wie es video u renderprogramme schon ne ganze weile tun
Ähnliche Themen
- Antworten
- 73
- Aufrufe
- 9.140
- Antworten
- 5
- Aufrufe
- 1.587
- Antworten
- 5
- Aufrufe
- 1.460
- Antworten
- 10
- Aufrufe
- 2.152
- Antworten
- 5
- Aufrufe
- 2.370