Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Nvidia GeForce GTX 280 im Idle bei 25 Watt
- Ersteller Tommy
- Erstellt am
- Zur News: Nvidia GeForce GTX 280 im Idle bei 25 Watt
Vendetta
Commander
- Registriert
- Okt. 2007
- Beiträge
- 2.133
BessenOlli schrieb:Ich habe die Grafik mal zur besseren Vergleichbarkeit angepasst:
Ja, da sieht man recht gut was für ne Pleite die neue Geforce Gen wird
In Fear, Quake und Unreal 3 Spielen können sich die beiden GT200 Chips nur leicht absetzen und in den andren wurde wohl CF deaktiviert
Na das wird ein Reinfall werden für NV, das seh ich jetzt schon, warum sollten sie auch sonst so ne gefakte Grafik wie in der Hauptnews bringen, die irgendwelche Wunder prophezeit? Hunde die bellen, beißen nicht!
Zuletzt bearbeitet:
Lübke
Fleet Admiral
- Registriert
- Aug. 2007
- Beiträge
- 21.162
@Vendetta: bei schlechtestenfalls >25% schneller als die 3870x2 bis hin zu 150% schneller kann man wohl kaum von einer pleite sprechen... auch wenn die folien sicherlich beschönigt sind, wird die gtx280 eine beeindruckende performance abliefern...
zu allen kritikpunkten an der gtx280 kann man die geschwindigkeit sicher nicht dazuzählen...
zu allen kritikpunkten an der gtx280 kann man die geschwindigkeit sicher nicht dazuzählen...
Vendetta
Commander
- Registriert
- Okt. 2007
- Beiträge
- 2.133
Naja zumindest beweisen die Folien eines: die "60% schneller als eine GX2" sind reinste Phantasterei! -Und wie gesagt, die 150% ergeben sich garantiert durch Treiberprobleme bei CF, also nichts was mich jetzt groß schockieren wird, die 4870 wird sich in diesen games auch viel besser schlagen als die 3870X2 darauf kannst du dich verlassen.
Auch kann man sich darauf verlassen, dass für die Radeon immer der möglichst ungünstigste Modus gewählt wurde, nehme an 4x FSAA bei 1600er Auflösungen etc. Auch hier wird die 4870 deutlich vorne liegen, da ATI wie schon bei der 3870(und da hatten sie nur wenige monate zeit und nicht fast ein Jahr) die FSAA Leistung sicherlich verbessern wird.
Auch kann man sich darauf verlassen, dass für die Radeon immer der möglichst ungünstigste Modus gewählt wurde, nehme an 4x FSAA bei 1600er Auflösungen etc. Auch hier wird die 4870 deutlich vorne liegen, da ATI wie schon bei der 3870(und da hatten sie nur wenige monate zeit und nicht fast ein Jahr) die FSAA Leistung sicherlich verbessern wird.
Zuletzt bearbeitet von einem Moderator:
(Fullquote des direkten Vorposter entfernt)
Lübke
Fleet Admiral
- Registriert
- Aug. 2007
- Beiträge
- 21.162
die 60% sind auch nur ne durchschnittsangabe. anhand der folie kann man auch nicht sagen, dass das falsch wäre... aber die geschwindigkeit kann man sowieso erst einschätzen, wenn unabhängige tests kommen. vorher ist das alles reine spekulation. sowohl bei nv als auch bei ati. und man darf auch nicht vergessen dass hier (leider) dual-gpukarten als maßstab herangezogen werden. imho wäre eine 8800gtx ein besserer maßstab aufgrund von einzel-gpu und die ist nicht speicherlimitiert. durch die speicherlimitierung bei den meisten aktuellen karten können die ergebnisse ja auch noch beeinflusst werden...
riDDi
Admiral
- Registriert
- Aug. 2004
- Beiträge
- 7.558
Es fällt auf, dass die neuen Nvidia-Karten gerade in solchen Spielen gut dastehen, wo Crossfire X einfach schlecht skaliert. Je nach Modus kommt man in CoJ oder WiC auf gerade mal 30% Steigerung gegenüber einer einzelnen 3870 - und da ist der höhere Takt inbegriffen.
Kritik kann man dabei sehr wohl üben, denn Nvidia hat die 9800 GX2 nicht ohne Grund ausgeklammert. Nimmt man Benchmarkwerte von bspw. CB als Anhaltspunkt (man kennt die Settings ja nicht) sieht die Steigerung gegenüber der 9800 GX2 plötzlich irgendwie mau aus. Man könnte fast meinen, das meiste geht auf die eliminierte SLI-Ineffizienz zurück. Den Verbrauch der GX2 sollte man dabei problemlos erreichen.
Kritik kann man dabei sehr wohl üben, denn Nvidia hat die 9800 GX2 nicht ohne Grund ausgeklammert. Nimmt man Benchmarkwerte von bspw. CB als Anhaltspunkt (man kennt die Settings ja nicht) sieht die Steigerung gegenüber der 9800 GX2 plötzlich irgendwie mau aus. Man könnte fast meinen, das meiste geht auf die eliminierte SLI-Ineffizienz zurück. Den Verbrauch der GX2 sollte man dabei problemlos erreichen.
Einhörnchen
Rear Admiral
- Registriert
- März 2007
- Beiträge
- 5.145
oja, was für ein Reinfall:Vendetta schrieb:Ja, da sieht man recht gut was für ne Pleite die neue Geforce Gen wird
- Eine Singlecore-Karte, die immer schneller, teilweise sogar 2x so schnell ist wie eine Dualcore-Karte
- Dabei keine Probleme mit Microrucklern hat
- Und auch sonst keine CF/SLI Nachteile
B
Blackmarket
Gast
Wie könnt ihr diese Grafik posten? Es gehört eigentlich zur Journalistischen Verantwortung, nicht solche verzerrenden Grafiken zu posten, nicht einmal ein Hinweis dazu ist zu finden.
Einhörnchen
Rear Admiral
- Registriert
- März 2007
- Beiträge
- 5.145
@Blackmarket,
Das Problem ist: Wenn sie eine eigene machen müssen sie aufpassen wegen NDA.
Ansonsten sollte man aber schon darauf hinweisen, dass die Darstellung irreführend skaliert ist und man unbedingt auf die Zahlen achten sollte.
Ich verstehe auch Nvidia nicht. Ein Vorsprung von 2x hätte auch normal schno beeindruckend ausgesehen.
Das Problem ist: Wenn sie eine eigene machen müssen sie aufpassen wegen NDA.
Ansonsten sollte man aber schon darauf hinweisen, dass die Darstellung irreführend skaliert ist und man unbedingt auf die Zahlen achten sollte.
Ich verstehe auch Nvidia nicht. Ein Vorsprung von 2x hätte auch normal schno beeindruckend ausgesehen.
Zuletzt bearbeitet von einem Moderator:
(Komplettzitat entfernt.)
Vendetta
Commander
- Registriert
- Okt. 2007
- Beiträge
- 2.133
IgG schrieb:oja, was für ein Reinfall:
Und wegen Catalyst 8.3: Ich finde es angemessen alte Treiber zu nehmen, da die Geforce-Treiber noch nicht ausgereift sind. Laut CJ wurde mit den neusten Treibern ein Vantage Sprung von X4100 auf X4800 gemacht.
- Eine Singlecore-Karte, die immer schneller, teilweise sogar 2x so schnell ist wie eine Dualcore-Karte
- Dabei keine Probleme mit Microrucklern hat
- Und auch sonst keine CF/SLI Nachteile
Liest sich jetzt ja schön und gut, ABER:
- Die Single Core Karte ist nur marginal schneller, lediglich in Spielen wo CF sehr schlecht skaliert(es gibt ja sogar ein zwei wo die X2 langsamer ist als die 3870 Single!) kann sich die neue NV Generation absetzen!
- Micro Ruckler hin oder her, die 4870X2 wird genug power bieten, dass sie bei spielen garnicht erst unter die 30FPS kommen wird, die sind insofern in Zukunft sowieso nichtmehr wichtig, außerdem wird sich treibertechnisch garantiert etwas tun, sowohl was das skalieren mit versch. games als auch das Micro Ruckler Problem angeht!
- Was für CF/SLI Nachteile denn noch? Das Teil wird sicherlich nicht weniger strom Fressen als eine GX2 oder eine X2, die Sparfunktion halte ich auch für ein Gerücht und selbst da wird sie sich in 2D der 4870 die 20watt ca. brauchen wird, geschlagen geben müssen, selbst WENN diese Daten tatsächlich stimmen, was sie garantiert nicht tun, sie stimmen schon bei dem bekannten 9800GTX nicht auf dieser Folie!
F
flatterviech
Gast
was auch immer diese komische grafik aussagen soll. nicht einmal die achsen wurden beschriftet! es könnte genauso gut der stromverbrauch im direkten vergleich sein, oder die fps... was bitte soll man mit einem diagramm wie diesem anfangen?
ganz klar allerunterste schublade, sowas dürfte man gar nicht veröffentlichen!
ganz klar allerunterste schublade, sowas dürfte man gar nicht veröffentlichen!
Lübke
Fleet Admiral
- Registriert
- Aug. 2007
- Beiträge
- 21.162
@BON-BONZE: da muss ich dich enttäuschen, bei 4xaa hat die 3870x2 schon nur noch 12-13 fps, mal zwei (genau genommen sinds sogar weniger als doppelt so viele fps) sind dass dann auch nur ca 25 fps mit der gtx280
https://www.computerbase.de/2008-05/test-sapphire-radeon-hd-3870-x2-atomic/3/#abschnitt_benchmarks
https://www.computerbase.de/2008-05/test-sapphire-radeon-hd-3870-x2-atomic/3/#abschnitt_benchmarks
Zuletzt bearbeitet:
Doch. Immerhin zielen X2 und GT200 auf das gleiche Marktsegment ab, nur mit unterschiedlichen Ansätzen. Es wird ja auch keine Dual GPU Variante des GT200 geben.Orbmu2k schrieb:Edit: Ausserdem stehen da zwei NV Single Core gegen 2 ATI "Dual Core" im Rennen ... das lässt sich alles nicht vergleichen.
Ich nicht. Aktuell ist nun mal Catalyst 8.5, Release beim RV770 wird wohl 8.6. Bei der X2 steht dann wohl 8.7 oder 8.8 zur Verfügung. Das ist einfach nur typischer Marketing BS seitens nVidia. Aber das ist man dort ja mittlerweile gewohnt.IgG schrieb:Und wegen Catalyst 8.3: Ich finde es angemessen alte Treiber zu nehmen
Die Werte für die Leistungsaufnahme sind auch vollkommen unrealistisch. Idle hört sich ja noch plausibel an, denn eine 9800 GTX braucht tatsächlich um die 40-50W. Sollte nVidia hier wirklich etwas Brauchbares implementiert haben, könnten 25W sogar stimmen. Ich glaube es trotzdem noch nicht und würde eher auf Hybrid SLI tippen. Denn sonst hätte nVidia die Effizienz im Idle Betrieb einfach mal um Faktor 4 verbessern müssen. Wie soll das gehen? Entweder ist die Logik des G92 diesbezüglich einfach unglaublich schlecht oder man hat massiv am Fertigungsverfahren gefeilt.
Total weltfremd hingegen sind die Vorstellungen von der Last Leistungsaufnahme. Eine 9800 GTX braucht hier keine 80W, sondern vielmehr 170W. Also mehr als das doppelte. Rechnet man das auf die GTX 280 hoch, wären das über 310W. Dagegen ist die angesetzte TDP von 236W ein Witz und die reale Leistungsaufnahme würde selbst die schlimmsten Befürchtungen übertreffen.
Hybrid-SLI ist aber ebenso unwahrscheinlich, weil dort die Karte im Idle 0W verbrauchen würde, weil sie komplett abschaltet. Denkt doch mal nach, bevor ihr postet!
Und diese 170W beziehen sich auf das GESAMTE System, samt CPU, Mainboard und anderen Gedöns. Die 80W gilt allein der Karte.
Und diese 170W beziehen sich auf das GESAMTE System, samt CPU, Mainboard und anderen Gedöns. Die 80W gilt allein der Karte.
C
Cr7ish
Gast
Aber auch dann, sollen die 80W wohl stark verschönert sein, zumindest wenn der X-bit labs Test stimmt.
Wie wäre es, wenn du mal nachdenkst, bevor du postest. Ob die Karte tatsächlich 0W braucht, sei mal dahingestellt. Ich denke, sie wird trotzdem noch ein paar Watt "Standby" ziehen. Dazu kommt dann noch der integrierte Grafikchip, der ja auch noch was braucht.nWarrior schrieb:Hybrid-SLI ist aber ebenso unwahrscheinlich, weil dort die Karte im Idle 0W verbrauchen würde, weil sie komplett abschaltet. Denkt doch mal nach, bevor ihr postet!
Hast du dir die entsprechenden Zahlen überhaupt mal angeschaut? Da ist gar nichts bezogen auf "das GESAMTE System". Nochmal für dich ausführlich:nWarrior schrieb:Und diese 170W beziehen sich auf das GESAMTE System, samt CPU, Mainboard und anderen Gedöns. Die 80W gilt allein der Karte.
Idle (Gesamtsystem):
9800 GTX = 165W
HD 3650 = 130W
Das gesamte System mit der sparsamsten Karte braucht also 130W. Die Karte selbst wird vermutlich 10W brauchen. Das System mit der 9800 GTX braucht 35W mehr, macht also insgesamt 45W Idle für die Karte allein. Unter Last (293W) kommen bei der 9800 GTX 128W hinzu (293-165). Macht also insgesamt 173W (45+128) Leistungsaufnahme unter Last NUR für die Karte.
Natürlich stimmt das nicht ganz, weil die Belastung von anderen Komponenten ebenfalls mit einberechnet werden muss, wie zB CPU. Trotzdem sind 80W bei der 9800GTX unrealistisch, genauso wie 147W bei der GTX 280. Das ist der springende Punkt. Über die genauen Zahlen können wir uns ja nochmal unterhalten, wenn die Karten verfügbar sind und unabhängig getestet wurden.
Zuletzt bearbeitet:
Ähnliche Themen
- Antworten
- 102
- Aufrufe
- 13.928
- Antworten
- 5
- Aufrufe
- 1.581
- Antworten
- 80
- Aufrufe
- 15.859
- Antworten
- 12
- Aufrufe
- 14.718
- Antworten
- 13
- Aufrufe
- 2.368