News Details zur Radeon-HD-4000-Serie von AMD

Nein Mädels - ich betrachte nicht nur die Taktraten.

Und ja, ich habe die Shadereinheiten absichtlich nicht erwähnt...
Und nun wisst ihr hoffentlich auch warum, da ihr deren Bedeutung
gerade so hervorhebt...

Edit:
Nur mal ganz kurz zur Erinnerung für die Oberlehrer hier -
Das erst 265-Bit Interface hat NV im Jahre 2003 in der
FX-Reihe verbaut. Um genau zu sein - bei der 5900 XT!
Die hatte 390 MHz Takt bei einer Füllrate von 3120 MT/s
und das bei verbauten 128 u. 256 MB DDR-RAM mit lediglich 350 MHz.
Die maximale Speicherbandbreite betrug damals nur lächerliche 22,4 GB/s
(das ist gerade mal das 8600 GT Niveau).

Was wollt ihr mir also erzählen?
Ginge es nach eurer Logik hätte NV in der FX-Reihe niemals solch
ein Interface verbauen dürfen!

Und nur zur Info für die Hobby-BWLer:
Wenn ich im Einkauf und in der Produktion nahezu dieselben
Teile habe wirkt sich das ganz massiv kostensenkend aus!
Und dabei meine ich nicht nur die Fixkostendegression bei hoher
Stückzahl oder Mengenrabatte beim Bestellen.
Nein, auch in nachgelagerten Bereichen wie z. B. bei der Maschinentechnik
spart man einiges ein, wenn mann sich nicht allzusehr diversifiziert.
Rein Ökonomisch ist der Sinn oder Unsinn vom 256-Bit PBC
also mehr als zweideutig...

Als primäre Leistungsstellschraube reichen die Shader
nach wie vor völlig aus.
 
Zuletzt bearbeitet:
darko2 schrieb:
@ crustenscharbap: Du meinst sicher die Informationen zu echten Dual-Core-Grafikchips. Hätte auch gedacht, dass die als nächstes kommen. Aber es weiß ja keiner von uns, ob das hier nicht vielleicht doch der Fall ist. Und ob die dann auch Miniruckler/Mikroruckler (wie CF/SLI) haben, kann auch noch niemand genau sagen.


Angaben wie 2x512MB/2x1024MB Speicher sind meiner Meinung nach ein deutlicher Widerspruch zum - wenigstens von der Gerüchteküche - angekündigten Multichip-Verfahren. Das würde ja einen riesigen Vorteil verspielen, wenn immer noch jeder Chip seinen eigenen Speicher benötigt; abgesehen davon, dass man das dann auch nicht begrifflich von bereits vorhandener Technik abgrenzen müsste.

Mikroruckler kann es ja auch nur geben, wenn verschiedene Chips/Chipteile gleichzeitig an unterschiedlichen Bildern arbeiten anstatt alle am selben Bild. Würde meiner Vorstellung von Multichip-Ansätzen zumindest ebenso widersprechen. Aber nun habe ich leider noch nicht viele Informationen dazu gefunden.
 
GeneralHanno schrieb:
wurde hier eigentlich auch erwähnt, dass AMD vermutlich das shader/TMU verhältnis verbessern will?
also wenn die zahl der shadereinheiten um 50% und die der TMUs um 100% steigt, sollte das klar sein ;)
 
ich geb Project-X vollkommen recht das die Taktraten nicht hinkommen können. 4400 mhz sind schier unvorstellbar was Ram angeht. Selbst ein Sprung von 2200 auf 3600 halte ich für ausgeschlossen. Entweder stimmt das GDDR5 Gerücht nicht oder es handelt sich um niedrig getakteten GDDR5 der sich eig nur in den Latenzen unterscheidet. Greedz
 
warum soll das nicht stimmen?
gddr4 geht momentan bis 1,4ghz und gddr5 bis 2,5ghz
das behauptet zumindest quimonda, ich denke nicht das die einen vom pferd erzählen

klingt auch nicht unrealistisch
von gddr2 zu gddr3 hat man auch die frequenz verdoppelt
gddr4 war ja mehr ein kleiner aufguss

PS: es bleiben physikalisch 2,2ghz, egal ob 1 oder 2 bit pro takt übertragen werden
die bezeichnung 4,4ghz ist einfach nicht korrekt(auch wenn sie vielerorts verwendet wird)
 
Zuletzt bearbeitet:
Abwarten was am ende kommt.

Die 3000er Serie lasse ich nicht mal als eigenständige Produktlienie gelten ... eher als Refresh der 2000er. Und die 3850 schlag mich tot ist Midrange und ned Highend. Schließlich sagt das Preisleistungsverhältsnis etwas über die Platzierung aus und nicht die Tatsache dass es die schnellste Karte einer Produktlinie ist.

Die Verbesserungen klingen im allgemeinen ganz gut. Aber die Lesitung rein auf Speicherinterface, Shaderanzahl und Taktrate zu reduzieren ist mal absoluter Quark weil keiner die interne Chiparchitektur kennt. Also bleibt blos abwarten. Die Specs sind zwar alles schön und gut aber reines Marketing. Bestes beispiel war der Barcelona -.-, mit den Dingern steckt AMD in der selben Lage wie Intel mim P4.
 
wenn dass mit dem PowerPlay+ wirklich klappt, das der Verbrauch dann auf ~20 W und weniger sinkt, dann is ab September (wenn die ersten Trieberbugs ausgemerzt sind) eine HD 4850 meine :D
 
Wenn ich immer hier so lese spielen "alle" in einer Auflösung von 1280x1024 und sind zufrieden.
Warum wollen sich so viele gleich auf etwas neues stürzen? Wegen eines Benchmark?
 
also die stromsparfunktion Powerplay+ gefällt mir :) jetz muss nvidia ja auch langsam ma was in der richtung unternehmen. der durchschnittsverbrauch der ati ist jetzt schon deutlich geringer (außer vllt bei reinen zocker-rechnern ;) )
die leistung finde ich allerdings noch n bisschen mager. 2016 gigaflops mit der x2? das entspricht 2 x dem g90 der eigentlich hätte 11/2007 rauskommen sollen wenn denn konkurenz dagewesen wäre... demnach würde der g90 gegen die 4870 ausreichen -.-
und sollte der r700 nicht schon mit dx11 kommen?
ich hoffe mal dass das noch nich der weisheits letzter schluss ist sondern ne übergangskarte zur dx11 gpu... vllt handelt es sich hier ja tatsächlich im nen rv7x0 und nicht um nen r7x0?
 
Scheen! Das passt doch genau in meinen Zeitplan, gegen Jahresmitte meine 7950GT abzulösen. Wenn es halbwegs so kommt wie angesprochen, wird es wahrscheinlich die 4850 werden. Wäre dann nach ca. 10 Jahren mal wieder eine ATI. :) Meine letzte war eine Mach32.
Die werden ja wohl auch ein Update für´s ATI Tool bringen oder? Wäre schön.
Die andere Frage ist, ob ich dann auf Vista umsteigen werde?
 
Sich jetzt schon über den Stromverbrauch von 250 Watt aufzuregen ist totaler Nonsense.

1) wer kauft sich solche Karten? - Enthusiasten für HighEnd-PCs
2. Im welchem Verhältnis steht Last zu Idle beim normalen PC-User? - 30/70 oder 20/80? Selbst bei 50/50 läge sie im Schnitt immer noch unter einer 8800GTX.
3) Wenn sie wirklich unter 20 Watt im Idle braucht, wäre es ein absoluter Meilenstein wie der Schritt vom P4 zu zum C2D.

PS: Bevor ich mich über den Verbrauch aufrege, frag ich mich eher was man für ein Netzteil bzw. Ampere auf der 12V-Leitung braucht?
 
"Die Anzahl der ROPs bleibt wie bei der HD 3870 und HD 3850 bei 16, ebenso das Speicherinterface weiterhin bei 256 Bit, dafür wird die Anzahl der Textureinheiten (TMUs) auf 32 verdoppelt und die der Shadereinheiten auf 96 (5D) erhöht."

Nur 32 , die jetztigen Geforce 8 Karten haben bereits 64TMU's! Oh man das wird die Leistungsfähigkeit ganz schön einschränken(is ja kaum besser als die jetzigen HD38xx Serien)! Hoffe das die Infos nicht die finallen Spez. sind, sonst sehe ich schwarz für AMD/ATI!!!
 
@berberjesus:

sagmal kommt von dir manchmal auch etwas, was nicht total bescheurt ist, habe bisher 5 deiner beiträge gelesen, sorry wenn du jeden als idioten behandelst und dabei immer falsch liegst, hast du überhaupt Freunde. Meine Güte wieso kommst du mit der 5900xt/ultra?
ja klar hatte die 256bit SI aber nur 390mhz speicher, jetzt haben wir hier knapp das 5,5-fache. Wozu noch mehr. Falls du es noch nicht aus dem zusammenhang verstanden hast, damals war der Speicher nicht so schnell, und ein Sprung von 128 auf 256bit , war von den zusätzlichen Pins akzeptabel. Da die Fertigungungsverfahren immer kleiner werden, lohnt sich den anfallen Aufwand nicht.
Ansonstes sind deine Beiträge total paradox, man weiß nicht was du sagen willst.
Das hier finde ich ein Paradebeispiel:
"Und ja, ich habe die Shadereinheiten absichtlich nicht erwähnt...
Und nun wisst ihr hoffentlich auch warum, da ihr deren Bedeutung
gerade so hervorhebt..."

Du willst eine gravierende Tatsache nicht erwähnen, weils sie gravierend ist?

Noch zur Info, die Radeon 9700Pro war die erste GK mit 256bit SI, die NV 5800Ultra hatte noch 128bit, erst der Panikrefresh 5900Ultra hatte 256bit, und die 5900xt kam nochmals ein halbes jahr später...

edit:

Dein Profil zeugt auch von viel Niveau
 
Zuletzt bearbeitet:
na super. Gestern ist meine Auktion zum Verkauft meiner HD2xxx - Karte ausgelaufen weil ich mir eine aus der 3000er Reihe holen wollte und nun wird die 4000er angekündigt. Unschönes Timing :(
 
@Berberjesus
Vll. war das damals das maximal mögliche für eine High-End Karte? Nur weil es damals "spitze" war, ist es das heute nicht immer noch...

Glaubst du das AMD/Nvidia nich durchrechnet was am Ende billiger kommt? Ansonsten würd ich mich mal schleunigst dort bewerben - vll. sparn sie durch dich Kosten ein.
Als primäre Leistungsstellschraube reichen die Shader
nach wie vor völlig aus.
Die Frage ist doch nur: Wieviel?
Eine Low-End Karte aufzumotzen aber wenig Shader lassen --> bringt nix
Alles bei der Low-End Karte aufrüsten ist aber auch sinnlos, wenn sie dann so gut ist wie die Mid-End. Low-End komplett wegfallen lassen, meckern die Leute wieder dies "günstiger" haben wollen, weil sie soviel Leistung nich brauchen. Irgendwie muss man ja 3 Klassen konkret voneinander trennen. Ich hab bisher noch keine Probleme mit dieser Trennung (Low-, Mid, Highend) gehabt
 
oh, die idle-wattzahlen sind ein traum. da verzichte ich auch gerne auf ein paar prozent spitzenleistung gegenüber der nvidia, die dann wohl auch recht bald kommen wird.
 
Nur mal so nebenbei.

Zurzeit gibts keine CPU/MB die in der Lage wären eine Aktuelle Toprange GraKa schnell genug mit Daten zu versorgen.
Soll heißen: Die aktuellen(!) top grakas trödeln vor sich hin weil sie auf den Rest des Rechners warten müssen.

Im Moment wird man mit noch schnelleren Grakas wenig bis gar keine Mehrleistung bekommen solange es keine bahnbrechend neuen, schnelleren CPUs sowie Speicher und deren Anbindung an den Rest des Systems gibt.
 
AMDs leistungsstärkste Single-Chip-Lösungen sind der Radeon HD 4870 und Radeon HD 4850 an
Also entweder 'AMD bietet... an' oder 'AMDs .. sind ... ' (ohne "an")

Ich hätte an AMD's stelle den Laden mal aufgeräumt...

HD 4300: 64bit Speichterinterface, standardmäßig passiv gekühlt, 8 Shader, Takt von circa 500, GDDR2 (~400Mhz) (Stromaufnahme bei circa 40W)
HD 4500: 128bit Speicherinterface, doppelslot-passivkühler, 32 Shader, Takt von circa 700, GDDR3 (~700Mhz) (Stromaufnahme um die 60W, kein PCIe-Stecker benötigt)
HD 4700: 256bit Speicherinterface, doppelslot Heatpipe-Kühler mit 70mm Lüfter, 80 Shader, Takt von circa 1000, GDDR3 oder 5 (~1200-1800Mhz) (Stromaufnahme um 120W, ein PCIe-Stecker reicht)
HD 4800: 384bit Speicherinterface, doppelslot-Heatpipe-Kühler mit 70mm Lüfter, 112 Shader, Takt von circa 1000, GDDR5 (~2200Mhz) (Stromaufnahme bei knapp 200W, zwei PCIe-Stecker, 6pol. werden benötigt)

Und nun vllt welche Karten man konkret anbieten könnte:
HD4300:
4310 - sehr niedrige Taktraten, passiv gekühlt, auf Multimedia ausgelegt (HDMI bzw Display-Port mit Audiounterstützung) preislich sollte sie sich um 40€ ansiedeln
4330 - der große Bruder der budget-Karte, auch hier sollte eine passive Kühlung und ein Augenmerkt auf das Multimediale gegeben sein, 50€
HD4500:
4530 - hier werden die viel zu langsamen 2600/36x0 ergänzt, die sich nicht zum spielen eigneten. preislich siedelt sie sich um die 90€ an, bietet aber bereits genug spieleleistung, um aktuelle spiele auf low bis mid details darzustellen
4550 - die Karten zielt auf gelegenheitsgamer ab, preislich siedelt sie sich um die 120€ an
HD4700:
4750 - bei dieser Karte finden wir das beste P/L der 4xxx Serie. preislich bei circa 180€ bietet sie wesentlich mehr performance im vergleich zur 38x0 Serie.
4770 - etwas um die 220€ steht diese Karte im schatten des kleinen bruder
HD4800:
4870 - diese leicht abgespeckte High-End-Version erinnert an den Vergleich GTX <-> GTS: für grob 280€ gibt es hier Performance im High-End Bereich
4890 - der Performance-König schluckt zwar Strom ohne Ende, bietet allerdings unglaublich viel Power, um Crysis auch auf High-Details mit einem 22" Widescreen flüssig zu spielen. Preislich dürften hier wohl um die 350€ fällig sein.

Vielleicht hätte ich bei der Namensgebung etwas mehr marketingorientiert vorgehen sollen und bei jeder Modellreihe eine 7 oder 9 in die Mitte setzen sollen, allerdings finde ich das ganze so am besten.

Alles in allem habe ich leider ein "Loch" in das Preissegment um die 65€ und um die 150€ gerissen, allerdings sollte AMD hier nicht den eigenen Karten 3650 und 3850 Konkurrenz machen - insofern war das ganze durchaus gewollt!
 
Zuletzt bearbeitet:
Zurück
Oben