Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News GTX 480 mit 512 Kernen und 2x 8-Pin-Strom
- Ersteller Volker
- Erstellt am
- Zur News: GTX 480 mit 512 Kernen und 2x 8-Pin-Strom
Kasmopaya
Banned
- Registriert
- Mai 2007
- Beiträge
- 12.285
Hoffe für ATI das die HD 6870 2GB endlich mal wieder die Performance Krone holt, das lächerliche stromschleudern mit der GTX 480--512 sollte damit abgestraft werden. Genauso schnell und halb so viel Stromverbrauch und ATI hätte ihren Job gut gemacht.
HD 5870 2GB; HD 5970 2x2GB; HD 6870 2GB; HD 6970 2x2GB, nur mal ein kleiner Auszug...Weiter so nvidia, ohne nvidia hätte man als enthusiast wenig grund zur freude.
Zuletzt bearbeitet:
Wenn man nur Spiele betrachtet und SEHR grosszügig ist, kann man das so sehen. Tatsache ist, dass selbst hier ATI schon etwas besser war, was mit der HD 5000 Generation noch deutlich sichtbarer wurde.Schaffe89 schrieb:Die Diskussion braucht ihr nicht weiterführen, weil Nvidia und ATI was Peformance/Watt betraf sich nichts geschenkt haben, das kann man doch akzeptieren.
Dir ist aber schon bewusst, dass für Spiele genauso Single Precision Berechnungen durchgeführt werden?Schaffe89 schrieb:Und mit Single Precision meine ich die starke Leistung aufgrund der 5D Shader, beispielsweise in Anwendungen für die Grafikkarte, das hat nicts mit Spielen zu tun.
Der GT200b, ua in der GTX 285 verbaut, wurde genauso wie RV7xx in 55 nm gefertigt. Die ATI Architektur hat einfach wesentlich mehr Flächeneffizienz, auch bei gleicher Strukturgrösse, und ist damit wirtschaftlicher. Mit 65 nm bei nVidia war der Unterschied nur einfach noch gravierender.Schaffe89 schrieb:Dass die Chips wirtschaftlicher waren ist kein Wunder.
Nvidia fertigte ja auch in 65nm.
Zuletzt bearbeitet:
Schaffe89
Banned
- Registriert
- Sep. 2008
- Beiträge
- 7.933
Gruffi schrieb:. Tatsache ist, dass selbst hier ATI schon etwas besser war,
Dann möchte ich dazu gerne ein paar Quellen haben, welche dies bestätigen, da glaube ich nicht drann.
Lübke
Fleet Admiral
- Registriert
- Aug. 2007
- Beiträge
- 21.162
ati hatte mit der hd4k ein besseres performance/watt verhältnis als nvidia mit der g200 reihe? da hat wolfgang aber was ganz anderes gemessen.
bei dir hd5k ist das leistung/watt verhältnis top, aber das steht auch in keinem verhältnis mehr zur hd4k...
bei dir hd5k ist das leistung/watt verhältnis top, aber das steht auch in keinem verhältnis mehr zur hd4k...
Schaffe89
Banned
- Registriert
- Sep. 2008
- Beiträge
- 7.933
https://www.computerbase.de/2008-07/test-radeon-hd-4870-cf-vs-geforce-gtx-260-sli/26/#abschnitt_leistungsaufnahme
Die HD4870512mb schneidet in den Tests etwas besser ab ( paar %).
Verbraucht aber leider auch etwas mehr.
Ich sehe hier einen Gleichstand.
Die HD4870512mb schneidet in den Tests etwas besser ab ( paar %).
Verbraucht aber leider auch etwas mehr.
Ich sehe hier einen Gleichstand.
Luxmanl525
Admiral
- Registriert
- Mai 2007
- Beiträge
- 9.124
Hallo zusammen,
@ Raptor2063
2 GTX 460 schaffen definitiv keine Radeon 5970! Die GPU`s der 5970 entsprechen je einer ungebremsten Radeon 5850! Und dieselbe ist zwischen 10 - 18 % schneller als die GTX 460 und zwar querbeet durchweg in den Tests. Bei manchen sind es sogar 20 %.
Und weniger Strom wird die 5970 wohl auch noch ziehen als die beiden GTX 460!
Was die Radeon der 4000er Reihe angeht, zeichneten sich diese vor allem durch ein Phantastisches Preis-/Leistungsverhältnis aus! Wenn ich daran erinnern darf, Nvidia mußte seinerzeit die Preise der GTX 280 und GTX 260 teiweise um 150 € senken, die Hersteller liefen damals Sturm! Da war ganz schön was los! ATI hatte Nvidia da wirklich mehr als Kalt erwischt dadurch, daß sie eben den Schwerpunkt der 4000er Modelle auf den Mid-Range Bereich legten und da war die Radeon 4870 und 4850 geradezu ein Schnäppchen!
Und gewisse Macken gab es übrigens in jeder Baureihe. Sowohl der G92 aus auch G200 Reihe von Nvidia hatten ihre Macken, in Relation dazu eben auch die Radeon 4870 und Radeon 4850. Allerdings nur diese beiden der 4000er Reihe, die Radeon 4770 und 4670 waren egal ob im IDLE oder unter Last, in ihrer Klasse wohl am Stromsparendsten, die 4770 vielleicht sogar die Effizienteste.
So long....
@ Raptor2063
2 GTX 460 schaffen definitiv keine Radeon 5970! Die GPU`s der 5970 entsprechen je einer ungebremsten Radeon 5850! Und dieselbe ist zwischen 10 - 18 % schneller als die GTX 460 und zwar querbeet durchweg in den Tests. Bei manchen sind es sogar 20 %.
Und weniger Strom wird die 5970 wohl auch noch ziehen als die beiden GTX 460!
Was die Radeon der 4000er Reihe angeht, zeichneten sich diese vor allem durch ein Phantastisches Preis-/Leistungsverhältnis aus! Wenn ich daran erinnern darf, Nvidia mußte seinerzeit die Preise der GTX 280 und GTX 260 teiweise um 150 € senken, die Hersteller liefen damals Sturm! Da war ganz schön was los! ATI hatte Nvidia da wirklich mehr als Kalt erwischt dadurch, daß sie eben den Schwerpunkt der 4000er Modelle auf den Mid-Range Bereich legten und da war die Radeon 4870 und 4850 geradezu ein Schnäppchen!
Und gewisse Macken gab es übrigens in jeder Baureihe. Sowohl der G92 aus auch G200 Reihe von Nvidia hatten ihre Macken, in Relation dazu eben auch die Radeon 4870 und Radeon 4850. Allerdings nur diese beiden der 4000er Reihe, die Radeon 4770 und 4670 waren egal ob im IDLE oder unter Last, in ihrer Klasse wohl am Stromsparendsten, die 4770 vielleicht sogar die Effizienteste.
So long....
Lübke
Fleet Admiral
- Registriert
- Aug. 2007
- Beiträge
- 21.162
@Schaffe89: dir ist aber schon klar, dass du grad nen test zur gtx260 mit 192 shader verlinkt hast, oder?^^
und mit dem etwas mehr verbrauchen bezieht es sich auch nur auf last. idle kann man wohl nicht mehr von etwas reden...
wie man daraus aber jetzt ein besseres performance/watt-verhältnis für hd4k ablesen kann, ist mir doch etwas schleierhaft...
fakt ist, dass das verhältnis ständig bei ati und nvidia wechselt, mal hat der eine, mal der andere die nase vorn. aktuell ist es ati und davor war es nvidia. und wer in 28 nm das bessere verhältnis liefern kann, kann noch absolut niemand abschätzen. mit jedem fertigungsschritt werden die karten neu gemischt.
und mit dem etwas mehr verbrauchen bezieht es sich auch nur auf last. idle kann man wohl nicht mehr von etwas reden...
wie man daraus aber jetzt ein besseres performance/watt-verhältnis für hd4k ablesen kann, ist mir doch etwas schleierhaft...
fakt ist, dass das verhältnis ständig bei ati und nvidia wechselt, mal hat der eine, mal der andere die nase vorn. aktuell ist es ati und davor war es nvidia. und wer in 28 nm das bessere verhältnis liefern kann, kann noch absolut niemand abschätzen. mit jedem fertigungsschritt werden die karten neu gemischt.
Schaffe89
Banned
- Registriert
- Sep. 2008
- Beiträge
- 7.933
Diese Karte wollte Gruffi mit der HD4870 512 mb in Punkto FPS/Watt vergleichen.
Und ich glaub da hast du dich verlesen die HD4870 braucht mehr Strom, nicht umgekehrt.
Nicht die GTX260 mit 216 Shadern, welche ich auch lieber genommen hätte.
Und ich glaub da hast du dich verlesen die HD4870 braucht mehr Strom, nicht umgekehrt.
Nicht die GTX260 mit 216 Shadern, welche ich auch lieber genommen hätte.
Zuletzt bearbeitet:
Ich habe bereits Quellen genannt. 10% mehr Performance des GT200b bei 15-20% höherer Leistungsaufnahme sollte selbst mit einfachsten Mathematikkenntnissen nachzuvollziehen sein. Und wir reden hier nur von Spielen. Bei GPGPU liegt die Radeon rein von der Performance auch schon mal vorne.Schaffe89 schrieb:Dann möchte ich dazu gerne ein paar Quellen haben, welche dies bestätigen, da glaube ich nicht drann.
Wolfgang hat Karten einzeln vermessen, also ohne das restliche System? Zeige mir mal bitte die Quelle dafür!Lübke schrieb:ati hatte mit der hd4k ein besseres performance/watt verhältnis als nvidia mit der g200 reihe? da hat wolfgang aber was ganz anderes gemessen.
Nochmal, ich sehe hier nur Gesamtsysteme, nicht die einzelnen Karte. Xbitlabs hat zB die Karten einzeln vermessen. Da braucht die HD 4870 unter 3D etwas weniger, was den Trend nur bestätigt.Schaffe89 schrieb:https://www.computerbase.de/2008-07/test-radeon-hd-4870-cf-vs-geforce-gtx-260-sli/26/#abschnitt_leistungsaufnahme
Die HD4870512mb schneidet in den Tests etwas besser ab ( paar %).
Verbraucht aber leider auch etwas mehr.
Ich sehe hier einen Gleichstand.
Zuletzt bearbeitet:
Airbag
Fleet Admiral
- Registriert
- Aug. 2008
- Beiträge
- 12.192
Also ich sehe hier nur 7,2% unter Last mehr.
http://ht4u.net/reviews/2010/zotac_geforce_gtx_460/index12.php
Aber du magst HT4U ja nicht.
Mit GPGPU hast du natürlich recht. Gibt auch einen schönen Artikel von P3D dazu.
http://ht4u.net/reviews/2010/zotac_geforce_gtx_460/index12.php
Aber du magst HT4U ja nicht.
Mit GPGPU hast du natürlich recht. Gibt auch einen schönen Artikel von P3D dazu.
Schaffe89
Banned
- Registriert
- Sep. 2008
- Beiträge
- 7.933
https://www.computerbase.de/2008-09/test-nvidia-geforce-gtx-260-216-shader/25/#abschnitt_leistungsaufnahme
Die GTX260 mit 216 Shadern war laut diesem Test sogar noch sparsamer als die alte.
Und selbst hier muss sich die HD4870512mb fast der GTX260192 geschlagen geben.
Sieht man sich das Performancerating des Tests an.
Vergleichst du jetzt HD4890 mit GTX285?
Die GTX260 mit 216 Shadern war laut diesem Test sogar noch sparsamer als die alte.
Und selbst hier muss sich die HD4870512mb fast der GTX260192 geschlagen geben.
Sieht man sich das Performancerating des Tests an.
Gruffi schrieb:10% mehr Performance des GT200b bei 15-20% höherer Leistungsaufnahme
Vergleichst du jetzt HD4890 mit GTX285?
Lübke
Fleet Admiral
- Registriert
- Aug. 2007
- Beiträge
- 21.162
was für eine rolle soll das bitte spielen?Wolfgang hat Karten einzeln vermessen, also ohne das restliche System? Zeige mir mal bitte die Quelle dafür!
bei allen karten wurde das gleiche system mit dem gleichen verbrauch verwendet. quelle: am anfang jedes tests enthalten.
Consystor
Lieutenant
- Registriert
- Juli 2008
- Beiträge
- 607
Kann man sich für eine 4870 im Vergleich zu einer GTX260, von denen die GTX260 sicher nicht weniger performant war (und mE sogar ein Stück performanter), leicht überlegen:
Leistungsaufnahme des Gesamtsystems (welches aber bei beiden das gleiche ist):
Idle:
GTX260: 154W
HD4870: 197W
Last:
GTX260: 320W
HD4870: 333W
Quelle: hier und hier.
BTW: So weit ich weiß, sah es bei den 4000ern anfangs wegen fehlender Nutzung der PowerPlay-Technologie im Idle schlecht aus. Ich glaube aber, dass bei dem genannten Test schon die neueren Treiber genutzt wurden. Denn da war ja schon der G200b aufm Markt, wie man sieht.
Die Jungs von ATI haben die Leute ja noch recht lange drauf warten lassen, bis ordentliche Treiber raus kamen. Das mal zum Thema ATI-Treiber aber das gehört in einen anderen Thread. Und die heutigen kann man mit damals ja auch nicht vergleichen...
Leistungsaufnahme des Gesamtsystems (welches aber bei beiden das gleiche ist):
Idle:
GTX260: 154W
HD4870: 197W
Last:
GTX260: 320W
HD4870: 333W
Quelle: hier und hier.
BTW: So weit ich weiß, sah es bei den 4000ern anfangs wegen fehlender Nutzung der PowerPlay-Technologie im Idle schlecht aus. Ich glaube aber, dass bei dem genannten Test schon die neueren Treiber genutzt wurden. Denn da war ja schon der G200b aufm Markt, wie man sieht.
Die Jungs von ATI haben die Leute ja noch recht lange drauf warten lassen, bis ordentliche Treiber raus kamen. Das mal zum Thema ATI-Treiber aber das gehört in einen anderen Thread. Und die heutigen kann man mit damals ja auch nicht vergleichen...
Zuletzt bearbeitet:
Ja, natürlich.Schaffe89 schrieb:Vergleichst du jetzt HD4890 mit GTX285?
Was für eine Rolle das spielt? Muss man das tatsächlich auch noch erklären? Wenn jemand meint, es seien nur 4% Unterschied, sich dies aber auf das Gesamtsystem bezieht, sollte doch klar sein, dass es für die Grafikkarte selbst mehr als 4% sind.Lübke schrieb:was für eine rolle soll das bitte spielen?
Nochmal, HD 4870 und GTX 260 waren bezüglich Performance ziemlich identisch. Die GeForce brauchte aber etwas mehr Strom. Das sagt Xbitlabs und kann man auch bei HT4U herauslesen, wo bereits die GTX 260-216 ~7% mehr Strom braucht als die HD 4870 1 GB. Die ursprüngliche GTX 260 hat ja etwas mehr Strom als die GTX 260-216 gebraucht, was auch ComputerBase bestätigt.
Und wenn man sich HD 4890 und GTX 285 anschaut, sieht es nicht viel anders aus. Die 15-20% höhere Leistungsaufnahme der GeFore war sogar noch konservativ meinerseits. In der verlinkten Übersicht bei HT4U sind es 21%, bei Xbitlabs sogar 24,5%. So viel war die GTX 285 aber keineswegs schneller.
Das ganze soll gar nicht zu sehr ins Detail abdriften. Man erkennt aber einen klaren Trend. Performance pro Watt, RV7xx > GT200(b). Auch wenn es nur wenige Prozent Unterschied sein mögen und in der Praxis relativ vergleichbar.
Zuletzt bearbeitet:
Lübke
Fleet Admiral
- Registriert
- Aug. 2007
- Beiträge
- 21.162
um das ganze mal nicht ausufern zu lassen: können wir die diskussion bitte auf ferni und cypress beschränken? ältere generationen sind nicht teil der news. genaugenommen nichtmal der cypress, aber seis drum.
aktuell hat ati mit dem cypress ein besseres leistungs/watt-verhältnis, allerdings ist der chip auch deutlich schlanker gehalten und verzichtet auf features, die einen relativ kleinen kundenkreis ansprechen, wo nvidia aber dennoch besagte features in den chip verbaut hat.
das sind in erster linie gpgpu-features und kleinigkeiten wie mehr aa-modi, mehr tesselationseinheiten, physx, etc. sowas kostet halt. wers braucht, muss es selbst wissen. ich persönlich bin mit einer sparsamen abgespeckten gpu vollkommen zufrieden. sowohl 5770 als auch gtx460 sind für mich sehr reizvoll, obwohl sie in sachen gpgpu und tesselation den gf100-karten nicht das wasser reichen können. und so geht es der breiten masse.
wirtschaftlich auf jeden fall ein klarer vorteil für ati.
@gruffi: wenn eine karte samt system mehr braucht, wird die karte ohne das system mit sicherheit nicht sparsamer sein. ob 10 watt jetzt 1% oder 100% sind ändert daran auch nichts.
und jetzt lass bitte das ot ruhen. wenn du die hd4800 als stromsparwunder anpreisen willst, dann bitte nicht in einem thread, der mit der hd4k rein gar nichts zu tun hat.
danke
aktuell hat ati mit dem cypress ein besseres leistungs/watt-verhältnis, allerdings ist der chip auch deutlich schlanker gehalten und verzichtet auf features, die einen relativ kleinen kundenkreis ansprechen, wo nvidia aber dennoch besagte features in den chip verbaut hat.
das sind in erster linie gpgpu-features und kleinigkeiten wie mehr aa-modi, mehr tesselationseinheiten, physx, etc. sowas kostet halt. wers braucht, muss es selbst wissen. ich persönlich bin mit einer sparsamen abgespeckten gpu vollkommen zufrieden. sowohl 5770 als auch gtx460 sind für mich sehr reizvoll, obwohl sie in sachen gpgpu und tesselation den gf100-karten nicht das wasser reichen können. und so geht es der breiten masse.
wirtschaftlich auf jeden fall ein klarer vorteil für ati.
@gruffi: wenn eine karte samt system mehr braucht, wird die karte ohne das system mit sicherheit nicht sparsamer sein. ob 10 watt jetzt 1% oder 100% sind ändert daran auch nichts.
und jetzt lass bitte das ot ruhen. wenn du die hd4800 als stromsparwunder anpreisen willst, dann bitte nicht in einem thread, der mit der hd4k rein gar nichts zu tun hat.
danke
Zuletzt bearbeitet:
Natürlich ändert es etwas, wenn man über Relationen diskutiert. Zum Beispiel, eine 5% höhere Leistungsaufnahme bei 10% mehr Performance ist nun mal eine völlig andere Basis als eine 15% höhere Leistungsaufnahme bei 10% mehr Performance.Lübke schrieb:wenn eine karte samt system mehr braucht, wird die karte ohne das system mit sicherheit nicht sparsamer sein. ob 10 watt jetzt 1% oder 100% sind ändert daran auch nichts.
Übrigens, niemand hat die HD 4000 Serie als Stromsparwunder angepriesen. Kein Grund, jetzt polemisch zu werden. Es ging um die Behauptung von Raptor2063, dass die HD 4000 Serie nicht gerade effizient gewesen sein soll. Gemessen an der Konkurrenz war sie das aber sehr wohl.
Zuletzt bearbeitet:
Schaffe89
Banned
- Registriert
- Sep. 2008
- Beiträge
- 7.933
Du verlinkst hier Xbitlabs, welche den Stromverbrauch einer HD4890 im Idle niedriger messen als bei einer HD4870 und unter Last auch.
DAs war niemals die Regel und in allen anderen Tests komplett anders.
Ich bitte auch die Diskussion in ein anderen Thread zu verlagern, da das nichts damit zu tun hat.
DAs war niemals die Regel und in allen anderen Tests komplett anders.
Ich bitte auch die Diskussion in ein anderen Thread zu verlagern, da das nichts damit zu tun hat.
Ähnliche Themen
- Antworten
- 6
- Aufrufe
- 5.017
- Antworten
- 16
- Aufrufe
- 15.640
- Antworten
- 16
- Aufrufe
- 3.674
- Antworten
- 11
- Aufrufe
- 4.792
- Antworten
- 28
- Aufrufe
- 9.449