News Details zur Radeon-HD-4000-Serie von AMD

Was mich eher interessiert ist, ob es jetzt neue Chips sind, oder aufgebohrte 38xx. Ich kann mich noch daran erinnern, dass letztes Jahr gesagt wurde, dass AMD 2009 keine neuen GPUs bringen wollte. Die 3700X2 sollte das Maß aller dinge für dieses Jahr sein.
 
ist der leitstungsverbrauch jetzt im PowerPlay+ unter 20W oder unter 10W (der text sagt beides...)
 
Ich dachte, dass die 4er Seire schon mit den Multi chips ist. Find ich auf einer Art ganz gut, weil es bei Multichips miniruckler geben soll und weil da die Leistung nich ausgenutzt wird. Also ich find die Dinger ganz schön heftig. Wenn ich mir mal die HD 4870 und die 3870 anschaue, ist das schon nen ganz schön heftiger Unterschied. Wen ich mir nur schonmal mal die HD 4670 anschaue, die könnte mit der 9600GT mithalten. Ich persönlich finde die HD 4850 interessant, weil die bestimmt unter 200€ kostet und der TDP ist auch noch OK. Ich denke, dass die locker die HD3870 überrent. Überlegt euch mal 480! Shader. Ich find schon krass was die Low End Modelle schon haben. Das ist ja schon stärker als eine HD3670.

Ich denke unter 10W für die 250W karte ist kaum möglich. Ich denke, dass eventuelle di HD 4870 auf 10W schafft. Das find ich klasse. Theoretich könnte sich dabei sogar der Lüfter komplett abschalten. Ich finde den Last TDP vor allem bei den Mittelklassenkarten sehr hoch 100W.
 
Zuletzt bearbeitet:
Ich denke mal das Speicherinerface wird groß genug sein. Denk ihr etwa die Entwickler bei AMD/ATI werden sich voher keine Gedanken über die Größe des Speicherinterface gemacht haben. Was hier so einige von sich geben ist der Hammer. Ein Speicherinterface von 2x512Bit bedeutet das allein die GPU nur für die Übertragung der Daten zum Speicher 1000Pins haben muss. Dazu kommen noch sehr viele GND und VCC Pins, so das der Chip sicherlich ca 1500 bis 2000Pins haben muss. Damit dann die Daten gleichzeitig über alle Leitungen übertragen werden können, müssen die Leitungen alle exakt gleich lang sein. Zudem dürfen die Leitung nicht so dicht beieinander liegen, da sich die Signale ansonsten gegenseitig beinflussen. Dies macht die Leiterplatte und den Grafikchip so teuer, das sich wieder nur ein kleiner Teil von Euch solch eine Grafikkarte kaufen kann.
 
@ crustenscharbap: Du meinst sicher die Informationen zu echten Dual-Core-Grafikchips. Hätte auch gedacht, dass die als nächstes kommen. Aber es weiß ja keiner von uns, ob das hier nicht vielleicht doch der Fall ist. Und ob die dann auch Miniruckler/Mikroruckler (wie CF/SLI) haben, kann auch noch niemand genau sagen.
 
mh, scheint als hätten die jungs bei amd/ati ihre hausaufgaben gemacht, beim bau der 3870X2 viel gelernt und stellen sich jetzt neu auf.
könnt n' super jahr für grafikkarten werden :)
 
@ 15 wieso sonst rennnen die Nvidida Karten, ati davon?!
2x512bit und die karte würde Nvidida im regen stehen lassen! Naja mal sehen was aus den karten wird :D
 
Stromverbrauch im Idle: Ausgezeichnet!
Darauf warte ich schon seit Jahren! High-End mit <20W Idle, Mid-Range mit <10W Idle, Low-End mit <5W Idle ist ein Traum! Momentan liegen wir beim 4-5 fachen idle-Verbrauch...
Das ist wirklich ein gewaltiger Sprung, wenn es AMD jetzt noch schaffen würde ein passendes Marketing dazu aufzubauen könnte man hier NVidia ordentlich das Wasser abgraben. (Aber man kennt ja die tolle AMD-Marketingabteilung - ne halt, haben die überhaupt eine :p)

Stromverbrauch unter Last: Katastrophe!
Im High-End Bereich weitgehend egal, hier greifen sowieso nur Entusiasten zu und die haben auch sonst sich nicht gerade einen Strompar-PC... (wobei 250W muss man sich erstmal auf der Zunge zergehen lassen, das ist das 2-3 fache eines normalen, kompletten PCs!)
Aber 100W im Midrange-Bereich? Das ist eine Verdopplung! zusätzliche Stromstecker sind damit im Midrange wohl Standard :freak:
50W im Low-End sind ebenfalls eine Verdopplung zu bisherigen Karten. Dabei ist die Performance immer noch unter aller Kanone, was frisst denn hier die viele Leistung???
Vermutung: Hier hat man 10% höheren Takt gegen 30% höheren Energieverbrauch getauscht
 
Ooh jaa :)

PowerPlay+ hammer, auf sowas habe ich gewartet, das gleicht doch glatt den Verbrauch wunderbar aus.
Scheinbar werden die Karten noch allgemein schneller und wenn der Preis wie bei der 3xer Serie ist dann passt alles.

Das wird ein Super sprung von der 1950pro zu einer 4870/50er :D aber nur wenn der Preis weiterhin so stimmt wie bei der 3k Reihe :) Ich freue mich so sehr auf die Karten.

Was mich noch interessiert ist eben der Preis und das eigentliche Chipdesign :)
 
das sind ja schöne aussichenten für den sommer :), ich hoffe das ati es noch schaft ohne leistungsverlust die TDP etwas mehr zu senken unten last :D
fehlt jetzt nur noch die neuen Phenoms das die ohne probleme laufen und ein gutes ergebnis erziehlen =)
 
Hört sich gut an^^ Werd ich mir vllt sogar holen. Will mir dann jemand meine "alte" 3870 abkaufen ?? ;)
 
@ Drachton und Bensen

Die Kärte hatte dann zwar nen großen Speicher, die GPU is aber zu lahm ums trotzdem flüssig darzustellen (Porsche mit Trabi-Motor).
Ach komm - das ist doch einfach nicht wahr. Der Vergleich hinkt...
Schaut euch doch mal die GPU-Leistungsdaten an. Die Unterschiede von Low- Mid- und
High-end sind doch wirklich marginal!
Unser aktueller Low-End wird doch erst durch die beschnittene Speicheranbindung
und den lahmeren, älteren RAM zum Low-End.
Die Taktraten würden sehr wohl das was ich als allgemeines Minimum
fordere vollumfänglich nutzen!
Die Rechenleistung ist das geringste (und übrigens auch billigste) Problem.
GDDR3 und 4 sind mittlerweile auch nicht mehr so teuer, als dass man sie
nicht im Low-End verbauen könnte.

es ist einfach purer schwachsinn
Aus o. g. Gründen ist es das nicht...
 
RV770 ey .. "Radeon Value" ...

die sollen potente R700 bauen aber nicht sowas.

PowerPlay+ - sehr geil !
 
Zuletzt bearbeitet:
BERBERJESUS schrieb:
Schaut euch doch mal die GPU-Leistungsdaten an. Die Unterschiede von Low- Mid- und
High-end sind doch wirklich marginal!
Low - Mid - High:

8400GS 16/8Shadereinheiten - 8600GTS 32Shadereinheiten - 8800GTX 128Shadereinheiten

2400 XT 8Shadereinehiten - 2600XT 32Shadereinheiten - 2900XT 64Shadereinheiten.


Ich sehe hier gewaltige Unterschiede der Rechenleistung.
 
@Berberjesus
Betrachtest du nur Taktraten? .. Takt ist nich alles

Low-End 8 Shader-Einheiten
Mid-End 48 Shader-Einheiten
High-End 96 Shader-Einheiten

Das ist der weitere wichtige Faktor! Bestücke eine HD 4470 mit GDDR4 und 512MB RAM. Von außen mag sie sich vll. anhören wie eine HD 4670 - in Games hat sie gegen die 4670 null Chance, da 8 gegen 48 Shader Einheiten. Ich versteh nich warum du Low-End so hoch "aufrüsten" willst. Es bringt nichts ... Low-End ist Low-End. Einfach ne Windows-Karte, für Filme&Office&Surfen. Für Leute die keine Onboard haben, oder nur minimalste Gaming-Anforderungen. <5 W Idle-Verbrauch ist doch perfekt für sowas gedacht
 
hm von der 4870 X2 würden sich ab Sommer 2 im Rechner sicher ganz gut schlagen. Bis dahin dürfte Quad Crossfire auch ganz gut implementiert sein.

Wird wohl ein neues Netzteil fällig. =/ aber davon 2 auf einem P35, hm. Glaubt ihr da reißt PCI-Express V2 viel ( 2x 16fach v2 auf einem X38 gegen 1x 16fach + 1x4fach v1 auf P35)...? Naja notfalls tuts auch eine Graka ^^
 
Ich kanns irgendwie nicht ganz glauben was da steht. GDDR5 soll bei der Radeon HD 4870 mit 2.2GHz bzw. effektiv 4.4GHz takten? :rolleyes:

Die heutigen Karten ala HD 3870 bzw. GF 8800 Ultra haben mal 1125MHz (2250MHz) bzw. 1080MHz (2160MHz) und das bei GDDR4 & GDDR3.

Es ist schon recht ersteunlich wie schnell die ATI's die neuen Serien auf die beine bringen.
Kaum sind die HD 3XX0er Serie auf dem Markt sollen schon bald die 4XX0er starten.
Und dies alles inkl. die HD2900er Serie entstand Parallel zur GF8er Serie.

Und da hat meine Vermutung doch recht, dass der HD3870 meh oder wenniger das High End Modell bei denn AMD/ATI's sind und nicht wie viele denken um ein Mainstream Handelt nur weil der Preis so niedrig ist.
 
Wäre ja geil wenn die abgehen wie irre. Alos die 4000 Serie scheint mein ding zu werden. Aber zumindest bei der HD4870 hätte man 512Bit machen sollen. Auch wenn es kaum genutzt wird aber bei highend sollte jede möglichkeit zu Limitieren ausgeschlossen werden.

Positiv ist auf jeden die HD4670 mit 256Bit und 512MB! Sauber ATi Endlich!

:D

Gruss Jens
 
sorry Berberjesus, aber was du erzählst ist vollkommener blödsinn
die rechenleistung einer 2400xt oder 4470 ist das allergrößte problem

du willst mir doch nicht ernsthaft erzählen das einer 4470 mit einem vierzehntel der rechenleistung der 4870, ein sechstel der speicherbandbreite eben jener nicht ausreicht?

man sieht doch bei der 2600xt das der gddr4 speicher dort kaum was bringt
die 25GB/s der 4470 reichen dicke aus

aber du scheinst auch nicht viel über die kosten nachdenken
ein 256bit SI würde den chip größer und somit teurer machen, es würde doppelt so viele speicherchips benötigt und das pcb würde deutlich größer und komplexer

und das bei einem chip der von der rechenleistung her ein totaler krüppel ist?
sorry aber das kannst du nicht ernsthaft glauben
 
@ Brooklyn: Und auch hier wieder: Bis nicht jemand mit viel Ahnung kommt und beweist, dass wir alle irgendwo einen Denkfehler haben: Die kleine Speicheranbindung ist egal, solange der Speichertakt so gigantisch ist. Und die 4400er wird den Gerüchten nach nun schon das doppelte der derzeitigen Low-End-Karte haben, also langsam ist es mal gut! Ihr seid nicht die Zielgruppe dafür und es hat nicht jeder einen Papi, der euch mal eben 100 Euro eine Low-End-Karte mit 256bit bezahlen kann! Die Dinger wären P/L-mäßig wahrscheinlich eine Katastrophe und würden keinem der Hersteller gut tun!
 
Zurück
Oben