News Details zur Radeon-HD-4000-Serie von AMD

Nova1984 schrieb:
(wobei 250W muss man sich erstmal auf der Zunge zergehen lassen, das ist das 2-3 fache eines normalen, kompletten PCs!)
Nein, 250 Watt verbraucht ein Desktop-PC mit, sagen wir mal, auf Leistung ausgelegten Komponenten (ich sage nicht High-End) unter Last.

Nova1984 schrieb:
Aber 100W im Midrange-Bereich? Das ist eine Verdopplung! zusätzliche Stromstecker sind damit im Midrange wohl Standard :freak:
PCIe 2.0 liefert bis zu 150 Watt über den Steckplatz des Mainboards.

BERBERJESUS schrieb:
Und nur zur Info für die Hobby-BWLer:
Wenn ich im Einkauf und in der Produktion nahezu dieselben
Teile habe wirkt sich das ganz massiv kostensenkend aus!
Und dabei meine ich nicht nur die Fixkostendegression bei hoher
Stückzahl oder Mengenrabatte beim Bestellen.
Nein, auch in nachgelagerten Bereichen wie z. B. bei der Maschinentechnik
spart man einiges ein, wenn mann sich nicht allzusehr diversifiziert.
Genau deshalb setzt man auch durchgängig auf 256 Bit Speicherinterface, auch bei den High-End-Karten.
Ausnahme sind die Low-End-Modelle mit 128 Bit, diese werden in recht großen Stückzahlen und möglichst billig produziert, weshalb sich diese Differenzierung wirtschaftlich lohnt bzw. sogar notwendig ist.

Papabär schrieb:
"Nur 32 , die jetztigen Geforce 8 Karten haben bereits 64TMU's! Oh man das wird die Leistungsfähigkeit ganz schön einschränken(is ja kaum besser als die jetzigen HD38xx Serien)!
Äpfel und Birnen...und eine 100%ige Erhöhung ist bei mir eine Verdoppelung und nicht "kaum besser".

ScoutX schrieb:
Powerplay+ halte ich auf dem Papier auch für sinnvoll, aber wie schon so viele Energiesparwunderfunktionen auf dem Papier ihr Debüt gefeiert haben, so haben auch genausoviele ihre Versprechen nicht erfüllen können.
Bisher hat PowerPlay bei den 38x0-Modellen eine gute Figur gemacht. Die HD 3870 X2 hat sogar (laut CB-Test) einen Modus zwischen "Idle" und "Last", also für mittlere Last - Energiebedarf liegt dann bei ca. 120 Watt (sagt mir mein Gedächtnis).
 
@ AlphaGoku

Du bist auch nur so ein Laberer, aber sei's drum...

Offenbar gehörst du auch zu denjenigen die nie den Richtigen Umgang mit dem
Wort "paradox" gelernt haben. Wenn du meine Beiträge aus eigener Geisteskraft heraus
nicht verstehst, dann ist mir das außerdem Schnuppe. Ich bin nicht der liebe Erklärbär...
Mann kann erstmal fragen, anstatt gelich zu pöbeln.
Gut, ich pöbel manchmal auch gerne - allerdings tu ich das nicht grundlos.

Oh - und das hier noch zum Thema Speicheranbindung: *klick*
 
ScoutX schrieb:
Powerplay+ halte ich auf dem Papier auch für sinnvoll, aber wie schon so viele Energiesparwunderfunktionen auf dem Papier ihr Debüt gefeiert haben, so haben auch genausoviele ihre Versprechen nicht erfüllen können.
Nunja, aber Powerplay als solches scheint ja schonmal gut zu funktionieren. Aber ich gebe dir hier recht, erstmal abwarten.

Sollten sich diese Daten bewahrheiten und tatsächlich bis zu 250W verpulvert werden, muss man sich langsam Gedanken machen, ob die jetzige GPU-Architektur nur von Stümpern erstellt wurde. Denn solche Werte zieht kaum ein Quodcore an Strom.

Hierbei handelt es sich erstens um ein Crossfire. Daraus folgt zweitens, dass ein extra Chip auf der Platine benötigt wird, der auch mit Strom versorgt werden muss. Ganz zu schweigen von der Platine selbst und dem RAM. Zieh das alles erstmal ab, damit wir die reine GPU-Chip Aufnahme gegen die CPU-Aufnahme stellen können. Dann berücksichtigen wir noch, dass es sich um Chips mit schätzungsweise jeweils mehr als 1Mrd Transistoren handelt und erst dann können wir anfangen Vergleiche zu machen. Ansonsten ist nur dein Vergleich stümperhaft.

Zumindest sollte man den GPU-Herstellern raten, schnellstmöglich auf 32nm umzustellen
Ja glaubst du denn denen macht es Spaß in größeren Strukturen zu fertigen? Die produzieren auch in 1nm wenn du ihnen mal schnell die Technologie gibst.
 
Mystic-Car schrieb:
@bensen und C.J.
Ich würde mal meinen im Internet :D
Ich hoffe ich kennt Google, es beißt nicht ;D
Tippt einfach mal "R700 Multi-GPU" o.ä. ein.


Grüße

Achso, das meinst du. Das mit dem Multi-Chip-Design bezieht sich afaik auf den ursprünglichen R700, welcher dann wohl auch eine neue Architektur haben sollte. Der wurde allerdings vorerst auf Ende '08/Anfang '09 verschoben und es wird dieser RV670-Refresh dazwischengeschoben, um im Leistungssegment noch konkurrenzfähig zu bleiben.

BERBERJESUS schrieb:
@ AlphaGoku

Du bist auch nur so ein Laberer, aber sei's drum...

Offenbar gehörst du auch zu denjenigen die nie den Richtigen Umgang mit dem
Wort "paradox" gelernt haben. Wenn du meine Beiträge aus eigener Geisteskraft heraus
nicht verstehst, dann ist mir das außerdem Schnuppe. Ich bin nicht der liebe Erklärbär...
Mann kann erstmal fragen, anstatt gelich zu pöbeln.
Gut, ich pöbel manchmal auch gerne - allerdings tu ich das nicht grundlos.

Oh - und das hier noch zum Thema Speicheranbindung: *klick*

Was genau willst du uns denn jetzt sagen? Bei der 9600 GT wird ein 256Bit-SI verbaut ... und? Die wird immer noch deutlich leistungsfähiger sein, als eine HD44xx. Das 128bit-SI wird bei GDDR3 wohl zu stark gebremst haben und man hat sich deswegen für 256bit entschieden. Was man für ein Speicherinterface verbaut, hängt doch in erster Linie davon ab, wieviel Bandbreite ein Chip optimalerweise braucht, um gut ausgenutzt zu werden. Wenn der Chip mehr Bandbreite braucht, man diesen Verbrauch aber nicht (wirtschaftlich) durch höher getakteten Speicher abfangen kann, dann wird eben das SI erhöht (wie bei der 9600GT). Wie gesagt, ich verstehe deinen Standpunkt nicht.
 
GDDR 5 hat bei gleichem Takt den doppelten Durchsatz.

Quadchannel eben.
 
Und los geht's mit den 1GHz starken GPUs. Wurde aber auch Zeit lol Juni könnte realistisch sein, aber eher nicht, da die Massenfertigung von GDDR5 doch erst gegen Mitte 2008 beginnen soll? Oder bin ich da falsch informiert.
 
Und nur zur Info für die Hobby-BWLer:
Wenn ich im Einkauf und in der Produktion nahezu dieselben
Teile habe wirkt sich das ganz massiv kostensenkend aus!
Und dabei meine ich nicht nur die Fixkostendegression bei hoher
Stückzahl oder Mengenrabatte beim Bestellen.
Nein, auch in nachgelagerten Bereichen wie z. B. bei der Maschinentechnik
spart man einiges ein, wenn mann sich nicht allzusehr diversifiziert.
Rein Ökonomisch ist der Sinn oder Unsinn vom 256-Bit PBC
also mehr als zweideutig...

Der Text passt hervorragend zum Rest der Signatur :rolleyes:


@Topic
Meine Hd3870 kommt morgen (auch) an. Was soll, bis geklärt ist was die neuen Karten bringen werden und diese vergübar und erschwinglich sind, ist es schon wieder Juli/August. Ob man dann die aktuelle zu nem fairen Preis verkaufen können wird oder nicht, das sehe ich dann.

Ein ganz großes Lob an die Powerplayfunktion. Da kommen wohl die Früchte der Koexistenz mit AMD ans Tageslicht.
 
Die Daten sehen recht gut aus, soweit ichs beurteilen kann. Ich bin Mal gespannt, wie nVidia darauf reagiert. Der Preisentwicklung kann es ja nur gut tun. :D Und wer weiß, vielleicht lege ich mir doch eine 4850 zu, wenn die Leistung stimmt, natürlich.

LG
Ganeagon
 
Mystic-Car schrieb:
@bensen und C.J.
Ich würde mal meinen im Internet :D
Ich hoffe ich kennt Google, es beißt nicht ;D
im gegensatz zu dir kann ich den müll raussortieren der so im internet steht ;)
BERBERJESUS schrieb:
Oh - und das hier noch zum Thema Speicheranbindung: *klick*
lass es einfach, es wird immer lächerlicher
was soll uns der link sagen?
das mainstreamkarten im >100€ bereich ein 256bit SI haben
danke, das haben wir ja behauptet und das werden auch die nächsten mainstreamkarten von amd laut tabelle haben
eine 4470 liegt im preis deutlich drunter
MacroWelle schrieb:
PCIe 2.0 liefert bis zu 150 Watt über den Steckplatz des Mainboards.
ich weiss nicht wer dieses gerücht in umlauf gebracht hat, aber es hält sich hartnäckig
der slot kann immernoch max. 75w bereitstellen
 
Rasemann schrieb:
GDDR 5 hat bei gleichem Takt den doppelten Durchsatz.

Quadchannel eben.

Das hat doch nichts mit Quadchannel zu tun..
GDDR1 und 2 = zweifach-prefetch
GDDR3 und 4: vierfach-prefetch
GDDR5: achtfach-prefetch

Das einzige, was GDDR5 ist, ist DDR3 auf Grafikkarten...
 
Zuletzt bearbeitet:
@31

250 Watt sind für eine Doppelkarte mit der angepeilten Leistung niemals zu hoch. Vor nicht allzu langer Zeit verbrauchte das ein EinGPU-Topmodell alleine...
 
C.J. schrieb:
Achso, das meinst du. Das mit dem Multi-Chip-Design bezieht sich afaik auf den ursprünglichen R700, welcher dann wohl auch eine neue Architektur haben sollte. Der wurde allerdings vorerst auf Ende '08/Anfang '09 verschoben und es wird dieser RV670-Refresh dazwischengeschoben, um im Leistungssegment noch konkurrenzfähig zu bleiben.

Autsch :freak:
Davon stand nirgendwo was. *sich schäm*
Auch ein "Entschuldigung" an benses ;D


Grüße
 
Mmh interessante Daten wenn die wirklich und die Leristung stimmt wäre das ne Gelegenheit meine Schrottvidia raus zu hauen.
Was ich aber als negativ empfinde wäre bei den Topmodellen das der Ram nur mit 256 Bit angebunden ist naja noch ist ja nix bestätigt.
 
@ xxxx: Und auch nochmal extra für dich: Das magere Speicherinterface ist völlig egal bei den hohen Taktraten der Grafikspeicher. Du kannst also beruhigt zugreifen, wenn sie denn so kommen sollten und auch sonst konkurrenzfähig sind.

Beim Nächsten berichtigt ein anderer, bitte. ;)

@ Makrowelle / bensen: Was stimmt denn nun? Ich schau selbst nochmal. Wenn PCI-E 2.0 tatsächlich 150W schaffen würde, könnten mit etwas Glück sogar die High-End-Karten hier damit befeuert werden.

Edit: Wiki sagt leider nichts.
 
Zuletzt bearbeitet:
Ich hoffe viel mehr das ATI es mal schafft das Crossfire Problem zu lösen.

Multi GPU ist ein sehr gutes Prinzip und ist verglichen mit dem Entwickeln von extra Lösungen für die Segmente weit überlegen.

Nur ist dieses x2 : " Ich packe 2 Chips auf ein pcb " und musst dann 2xSpeicher verbauen ... controller und deutlich größere Abmaße in Kauf nehmen nicht gut.

Lösung: 2 Chips auf einen Träger, quasi ähnlich der CPU Dual Core technik aber anders *g
Problem: Es gibt momentan keine Praktikable Anbindung der GPU Kerne untereinander benötigt werden ca. 100 gb/s

Lässt sich dieses Anbindungsproblem lösen, ggf. durch die Hilfe von IBM ... könnte AMD extrem günstig sehr potente Karten bauen ohne jegliche Nachteile (siehe FrameTime Verlauf bei CF & Sli ) durch den "Dual Core" .


Aber doch die Eckdaten wenn sie stimmen sollten von den 4870 sind sehr interessant und sollte sie so kommen wird sie im Sommer in meinem PC landen :) .
 
Wieso mosern hier alle an der 256-bit Speicheranbindung rum? Die Speicheranbindung kann niemals limitieren, auf Basis der Speicheranbindung kann man also rein gar nichts über die Performance aussagen.

Das was limitieren kann ist die Speicherbandbreite, die sich aus der Speicheranbindung und dem verwendeten VRAM bzw. dessen Takt zusammensetzt. nVidia verwendet z.Zt. noch GDDR3, welcher max. mit etwa 1GHz (2GHz DDR) takten kann. Mit einem 384-bit SI und 1GHz GDDR3 erreicht man also eine Speicherbandbreite von 96 GB/s.

AMD verwendet zwar ein kleines 256-bit SI, koppelt dieses aber mit sehr schnellem GDDR5 VRAM, welcher bei der HD4870 mit 2,2GHz (4,4GHz DDR) takten soll. Dadurch erreicht man eine Speicherbandbreite von 140,8 GB/s, was üngefähr dem doppelten einer HD3870 entspricht und deutlich mehr ist als selbst eine 8800Ultra hat.

Also, bevor hier wieder gemoser wird sollte man sich informieren.
 
@darko2
Die 75W per Slot stimmen natürlich weiterhin bei PCIe 2.0.

Das wäre auch ein wenig unsinnig mal eben 75W zusätlich quer übers MB spazieren zu fürhren.


w0mbat schrieb:
Wieso mosern hier alle an der 256-bit Speicheranbindung rum?
Das ist echt nicht zum aushalten. Pseudo Wissende, die damit glänzen zu wissen, das ein dickes SI besser als ein dünnes SI.

Eventuell sollte CB die SI Angabe ganz weglassen und nur die Bandbreite angeben.
 
Einige werdens nie kapieren...
wie breit das speicherinterface ist ist vollkommen unbedeutend - allein die kombination speicher+interface (-> Datendurchsatz) zählt.

Ob ich ne 2spurige Straße habe auf der alle mit 50km/h fahren oder aber nur ne einspurige straße habe auf der dafür alle mit 100kmh fahren macht keinerlei unterschied.
 
Zurück
Oben