News Details zur Radeon-HD-4000-Serie von AMD

PowerPlay+ ist genau das, worauf ich schon lange warte. Endlich wird in die richtige Richtung entwickelt. :daumen:
 
Ich würde davon ausgehen, dass zum Release der HD 4XXX Serie die G9X Chips von Nvidia nochmal einen kleinen bis mittleren Schub durch Treiber bekommen, lediglich fürs Highend wird ein neuer Chip nötig sein (GT200).
 
@McBain: - Danke!
@Project-X: AMD spührte halt deutlich mehr Druck vom Markt, da von der 2000er Serie nur die 2600er Konkurenzfähig war. Bei der 3000er sind ja 3850 & 3870 nicht schlecht ausgefallen aber gegen GF88 GTS(G92), GTX und Ultra war doch keine Singelkarte im Portfolio. So konnt Nvidia Geld für die Entwicklung sparen, den Launch des G100 (oder wie auch immer) auf unbekannt verschieben und im Vergleich richtig Kasse machen. Da Nvidia bisher ein sehr spezialisiertes Produktprogramm hat wird dieses Unternehmen die Kohle brauchen wenn AMD sich berappelt hat und wie Intel bspw. für die eigenen CPUs die bessere Plattform und CF anstelle von SLI bietet.
Da ich mich selbst im Nov. 2006 für n Intelboard mit C2D und CF entschieden habe und nicht neu aufbauen möchte, freue ich mich einer der ersten Besitzer einer 4870er zu werden und meine GF7900GTO endlich aufs Altenteil zu schieben. Sollte die dann nach ein bis zwei Jahren nicht mehr reichen, ist sie bis dahin so günstig, dass ich ne zweite reindrücken kann.
Die alte Karte hat damals 250€ gekostet und war Highend heute reicht sie bei Crysis in 1280x1024 immer noch für mittlere Details inkl. Filter. Die neue soll wieder 250€ kosten und wenn ich Glück habe bekomme ich für ein paar Teuros darauf noch ein 3tes und 4tes Jahr Spielspaß dazu.
Obwohl ich jetzt nicht mehr der arme Schlucker von einst bin, der immer die vorletzte Graka Generation kaufen musste, ist das das Maximum was ich für die Hardware ausgeben möchte.
 
Was schaft denn eine 3000er 3870 Karte an Daten?
Modell Shader (5D) Speichermenge Speicherart Speicherinterface Takt (Chip/Speicher) Rechenleistung TDP
HD 4870 X2 2x 96 2x512/ 2x1.024 MB GDDR5 2 x 256 Bit 1.050/1.800 MHz 2.016 GFLOPs 250 W
HD 4870 96 1.024 MB GDDR5 256 Bit 1.050/2.200 MHz 1.008 GFLOPs 150 W
HD 4850 96 512 MB GDDR5 256 Bit 850/1.800 MHz 816 GFLOPs 120 W
HD 4670 48 512 MB GDDR4 256 Bit 1.000/1.200 MHz 480 GFLOPs 100 W
HD 4650 48 256 MB GDDR4 256 Bit 800/1.000 MHz 384 GFLOPs 80 W
HD 4470 8 256 MB GDDR3/DDR2 128 Bit 900/800 MHz - 50 W
HD 4450 8 128 MB DDR2 128 Bit 700/500 MHz - 30 W


Mir fehlt da das aktuelle Produkt
 
bin gespannt auf die neuen karten. war früher ein großer ATI fan, doch habe mich bei meinem neuen gaming pc für eine GForce 8800GT entschieden. wenn die neuen ATI kracher was werden, würde ich zurück wechseln.
 
Danke, ich meinte das eher als Kritik. Das sie über die Suchfunktion zu finden sind war mir klar, aber ich würde sowas immer auf einen Blick gestallten.

Aber wie kann man es denn ausrechnen?
 
also wieder viel heisse luft um nix. n paar mhz mehr takt und neuer speicher und das wars.
ich versteh nich so ganz wieso die das layout des pcb nichtmal komplett überholen und mehr shadereinheiten und co darauf verbauen. von mir aus kann das teil dann auch länger werden. aber was soll diese zahlenmogelei immer. und dann nur 50mhz mehr oder statt dx10 dx10.1 und solche scherze. irgendwie komm ich mir langsam verarscht vor, weil die wirklich großen sprünge beim generationswechsel ausbleiben.
 
KL0k schrieb:
also wieder viel heisse luft um nix. n paar mhz mehr takt und neuer speicher und das wars.
Nein, nicht wirklich. An der GPU selbst wurde schon noch einiges verändert.

KL0k schrieb:
ich versteh nich so ganz wieso die das layout des pcb nichtmal komplett überholen und mehr shadereinheiten und co darauf verbauen. von mir aus kann das teil dann auch länger werden. aber was soll diese zahlenmogelei immer. und dann nur 50mhz mehr oder statt dx10 dx10.1 und solche scherze. irgendwie komm ich mir langsam verarscht vor, weil die wirklich großen sprünge beim generationswechsel ausbleiben.
Es werden doch mehr Shadereinheiten, 64 vs. 96. Und man muss auch nicht immer gleich eine neue Architektur aus dem Boden stampfen, um grosse Sprünge zu machen. Die ~500 GFlops der HD 3870 gegenüber den ~1 TFlops der HD 4870 würde ich schon als großen Sprung bezeichnen.
 
ja, die karte kann 5 shaderoperationen gleichzeitig ausführen grob gesagt.

Funktioniert aber nur wenn die software mitmacht, was leider manchmal nicht der Fall ist.
(wobei man den Entwicklern dann teilweise schon Vorsatz vorwerfen muss...)
 
gruffi schrieb:
Nein, nicht wirklich. An der GPU selbst wurde schon noch einiges verändert.


Es werden doch mehr Shadereinheiten, 64 vs. 96. Und man muss auch nicht immer gleich eine neue Architektur aus dem Boden stampfen, um grosse Sprünge zu machen. Die ~500 GFlops der HD 3870 gegenüber den ~1 TFlops der HD 4870 würde ich schon als großen Sprung bezeichnen.

naja, was heisst einiges verändert..
ich mein..
wenn man sich ansieht in welchen abständen die karten mitlerweile auf den markt geschmissen werden, ist der leistungsgewinn nicht grade proportional mitgestiegen.
soll nicht heissen das ich jeglichen leistungszuwachs ignorieren würde, sondern das die sprünge zwischen den generationen mir persönlich zu klein sind mitlerweile.
beide unternehmen, haben doch denke ich mitlerweile ein finanzielles polster das groß genug ist, warum wird dann auf quantität statt auf qualität gesetzt? das isses was ich nicht verstehe. warum muss quasi alle 4 monate ne neue karte für irgendeinen sektor her, wenn man sich auch ruhig mal n 3/4 jahr zeit lassen könnte um dann wirklich zu überzeugen? das isses was ich nich so ganz nachvollziehen kann. denn n "sprung" von 64 auf 96 ist ja auch nicht grade was was einen vom hocker haut. das liest man sich durch, guckt sich die benches an, sagt "aha" und geht weiter.
 
das sind +50%, wann hatten wir mal mehr?
ich kann mich an keine generation erinnern
 
viele viele Shader? http://www.hartware.de/news_44306.html - dafür :lol:

gruß marantz

@ unter mir: für ne Midrange Karte hat die 9600Gt ne ordentliche Leistung und sie hat bei der Performance pro Shadereinheit im Vergleich zur 8800GT gut zugelegt, wenn dass sich so bei den 9800ern bestätigt, haben die doch noch ihre Berechtigung :)
 
Zuletzt bearbeitet:
+50%? lol?
guck dir mal bitte als beispiel den test von der 9600 an und wo die sich einordnet. bezeichnest du das einen nennenswerten großen sprung, wenn sogar die refresh karten der vorherigen generation schneller sind?
und das is bei ati doch kein anderes bild. dat is ne zahlendreherei und augenwischerei.

/edit: ob sie ihre daseinsberechtigung haben, lass ich mal dahin gestellt (für nichtmal 20€ mehr kriegste ne 8800GT die die mit leichtigkeit in den boden stampft, vor allem wenn man sie dann noch von der standardtakt-rate nach oben schraubt). in meinen augen ist die keiner rede wert. zwar nett anzuschauen, aber wer die ner 88er mit g92 vorzieht... weiss ich nich was ich davon halten soll.
 
Zuletzt bearbeitet:
marantz schrieb:
für ne Midrange Karte hat die 9600Gt ne ordentliche Leistung und sie hat bei der Performance pro Shadereinheit im Vergleich zur 8800GT gut zugelegt

wie kommst du bitte darauf ?

Bei shaderlastigen Spielen bricht die Karte gnadenlos weg. Das sie aktuell noch so gut zur 8800gt dasteht liegt nur daran das viele Spiele im Moment nicht so viel shaderleistung brauchen.
 
Zurück
Oben