Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Details zur Radeon-HD-4000-Serie von AMD
- Ersteller Andy
- Erstellt am
- Zur News: Details zur Radeon-HD-4000-Serie von AMD
MacroWelle
Commander
- Registriert
- Apr. 2006
- Beiträge
- 2.239
Nein, 250 Watt verbraucht ein Desktop-PC mit, sagen wir mal, auf Leistung ausgelegten Komponenten (ich sage nicht High-End) unter Last.Nova1984 schrieb:(wobei 250W muss man sich erstmal auf der Zunge zergehen lassen, das ist das 2-3 fache eines normalen, kompletten PCs!)
PCIe 2.0 liefert bis zu 150 Watt über den Steckplatz des Mainboards.Nova1984 schrieb:Aber 100W im Midrange-Bereich? Das ist eine Verdopplung! zusätzliche Stromstecker sind damit im Midrange wohl Standard
Genau deshalb setzt man auch durchgängig auf 256 Bit Speicherinterface, auch bei den High-End-Karten.BERBERJESUS schrieb:Und nur zur Info für die Hobby-BWLer:
Wenn ich im Einkauf und in der Produktion nahezu dieselben
Teile habe wirkt sich das ganz massiv kostensenkend aus!
Und dabei meine ich nicht nur die Fixkostendegression bei hoher
Stückzahl oder Mengenrabatte beim Bestellen.
Nein, auch in nachgelagerten Bereichen wie z. B. bei der Maschinentechnik
spart man einiges ein, wenn mann sich nicht allzusehr diversifiziert.
Ausnahme sind die Low-End-Modelle mit 128 Bit, diese werden in recht großen Stückzahlen und möglichst billig produziert, weshalb sich diese Differenzierung wirtschaftlich lohnt bzw. sogar notwendig ist.
Äpfel und Birnen...und eine 100%ige Erhöhung ist bei mir eine Verdoppelung und nicht "kaum besser".Papabär schrieb:"Nur 32 , die jetztigen Geforce 8 Karten haben bereits 64TMU's! Oh man das wird die Leistungsfähigkeit ganz schön einschränken(is ja kaum besser als die jetzigen HD38xx Serien)!
Bisher hat PowerPlay bei den 38x0-Modellen eine gute Figur gemacht. Die HD 3870 X2 hat sogar (laut CB-Test) einen Modus zwischen "Idle" und "Last", also für mittlere Last - Energiebedarf liegt dann bei ca. 120 Watt (sagt mir mein Gedächtnis).ScoutX schrieb:Powerplay+ halte ich auf dem Papier auch für sinnvoll, aber wie schon so viele Energiesparwunderfunktionen auf dem Papier ihr Debüt gefeiert haben, so haben auch genausoviele ihre Versprechen nicht erfüllen können.
BERBERJESUS
Banned
- Registriert
- Nov. 2007
- Beiträge
- 398
@ AlphaGoku
Du bist auch nur so ein Laberer, aber sei's drum...
Offenbar gehörst du auch zu denjenigen die nie den Richtigen Umgang mit dem
Wort "paradox" gelernt haben. Wenn du meine Beiträge aus eigener Geisteskraft heraus
nicht verstehst, dann ist mir das außerdem Schnuppe. Ich bin nicht der liebe Erklärbär...
Mann kann erstmal fragen, anstatt gelich zu pöbeln.
Gut, ich pöbel manchmal auch gerne - allerdings tu ich das nicht grundlos.
Oh - und das hier noch zum Thema Speicheranbindung: *klick*
Du bist auch nur so ein Laberer, aber sei's drum...
Offenbar gehörst du auch zu denjenigen die nie den Richtigen Umgang mit dem
Wort "paradox" gelernt haben. Wenn du meine Beiträge aus eigener Geisteskraft heraus
nicht verstehst, dann ist mir das außerdem Schnuppe. Ich bin nicht der liebe Erklärbär...
Mann kann erstmal fragen, anstatt gelich zu pöbeln.
Gut, ich pöbel manchmal auch gerne - allerdings tu ich das nicht grundlos.
Oh - und das hier noch zum Thema Speicheranbindung: *klick*
Straputsky
Commander
- Registriert
- Nov. 2005
- Beiträge
- 2.507
Nunja, aber Powerplay als solches scheint ja schonmal gut zu funktionieren. Aber ich gebe dir hier recht, erstmal abwarten.ScoutX schrieb:Powerplay+ halte ich auf dem Papier auch für sinnvoll, aber wie schon so viele Energiesparwunderfunktionen auf dem Papier ihr Debüt gefeiert haben, so haben auch genausoviele ihre Versprechen nicht erfüllen können.
Sollten sich diese Daten bewahrheiten und tatsächlich bis zu 250W verpulvert werden, muss man sich langsam Gedanken machen, ob die jetzige GPU-Architektur nur von Stümpern erstellt wurde. Denn solche Werte zieht kaum ein Quodcore an Strom.
Hierbei handelt es sich erstens um ein Crossfire. Daraus folgt zweitens, dass ein extra Chip auf der Platine benötigt wird, der auch mit Strom versorgt werden muss. Ganz zu schweigen von der Platine selbst und dem RAM. Zieh das alles erstmal ab, damit wir die reine GPU-Chip Aufnahme gegen die CPU-Aufnahme stellen können. Dann berücksichtigen wir noch, dass es sich um Chips mit schätzungsweise jeweils mehr als 1Mrd Transistoren handelt und erst dann können wir anfangen Vergleiche zu machen. Ansonsten ist nur dein Vergleich stümperhaft.
Ja glaubst du denn denen macht es Spaß in größeren Strukturen zu fertigen? Die produzieren auch in 1nm wenn du ihnen mal schnell die Technologie gibst.Zumindest sollte man den GPU-Herstellern raten, schnellstmöglich auf 32nm umzustellen
Mystic-Car schrieb:@bensen und C.J.
Ich würde mal meinen im Internet
Ich hoffe ich kennt Google, es beißt nicht ;D
Tippt einfach mal "R700 Multi-GPU" o.ä. ein.
Grüße
Achso, das meinst du. Das mit dem Multi-Chip-Design bezieht sich afaik auf den ursprünglichen R700, welcher dann wohl auch eine neue Architektur haben sollte. Der wurde allerdings vorerst auf Ende '08/Anfang '09 verschoben und es wird dieser RV670-Refresh dazwischengeschoben, um im Leistungssegment noch konkurrenzfähig zu bleiben.
BERBERJESUS schrieb:@ AlphaGoku
Du bist auch nur so ein Laberer, aber sei's drum...
Offenbar gehörst du auch zu denjenigen die nie den Richtigen Umgang mit dem
Wort "paradox" gelernt haben. Wenn du meine Beiträge aus eigener Geisteskraft heraus
nicht verstehst, dann ist mir das außerdem Schnuppe. Ich bin nicht der liebe Erklärbär...
Mann kann erstmal fragen, anstatt gelich zu pöbeln.
Gut, ich pöbel manchmal auch gerne - allerdings tu ich das nicht grundlos.
Oh - und das hier noch zum Thema Speicheranbindung: *klick*
Was genau willst du uns denn jetzt sagen? Bei der 9600 GT wird ein 256Bit-SI verbaut ... und? Die wird immer noch deutlich leistungsfähiger sein, als eine HD44xx. Das 128bit-SI wird bei GDDR3 wohl zu stark gebremst haben und man hat sich deswegen für 256bit entschieden. Was man für ein Speicherinterface verbaut, hängt doch in erster Linie davon ab, wieviel Bandbreite ein Chip optimalerweise braucht, um gut ausgenutzt zu werden. Wenn der Chip mehr Bandbreite braucht, man diesen Verbrauch aber nicht (wirtschaftlich) durch höher getakteten Speicher abfangen kann, dann wird eben das SI erhöht (wie bei der 9600GT). Wie gesagt, ich verstehe deinen Standpunkt nicht.
Zwirbelkatz
Fleet Admiral
- Registriert
- Juni 2006
- Beiträge
- 44.227
Und nur zur Info für die Hobby-BWLer:
Wenn ich im Einkauf und in der Produktion nahezu dieselben
Teile habe wirkt sich das ganz massiv kostensenkend aus!
Und dabei meine ich nicht nur die Fixkostendegression bei hoher
Stückzahl oder Mengenrabatte beim Bestellen.
Nein, auch in nachgelagerten Bereichen wie z. B. bei der Maschinentechnik
spart man einiges ein, wenn mann sich nicht allzusehr diversifiziert.
Rein Ökonomisch ist der Sinn oder Unsinn vom 256-Bit PBC
also mehr als zweideutig...
Der Text passt hervorragend zum Rest der Signatur
@Topic
Meine Hd3870 kommt morgen (auch) an. Was soll, bis geklärt ist was die neuen Karten bringen werden und diese vergübar und erschwinglich sind, ist es schon wieder Juli/August. Ob man dann die aktuelle zu nem fairen Preis verkaufen können wird oder nicht, das sehe ich dann.
Ein ganz großes Lob an die Powerplayfunktion. Da kommen wohl die Früchte der Koexistenz mit AMD ans Tageslicht.
Ganeagon
Lt. Junior Grade
- Registriert
- Nov. 2007
- Beiträge
- 393
Die Daten sehen recht gut aus, soweit ichs beurteilen kann. Ich bin Mal gespannt, wie nVidia darauf reagiert. Der Preisentwicklung kann es ja nur gut tun. Und wer weiß, vielleicht lege ich mir doch eine 4850 zu, wenn die Leistung stimmt, natürlich.
LG
Ganeagon
LG
Ganeagon
im gegensatz zu dir kann ich den müll raussortieren der so im internet stehtMystic-Car schrieb:@bensen und C.J.
Ich würde mal meinen im Internet
Ich hoffe ich kennt Google, es beißt nicht ;D
lass es einfach, es wird immer lächerlicherBERBERJESUS schrieb:Oh - und das hier noch zum Thema Speicheranbindung: *klick*
was soll uns der link sagen?
das mainstreamkarten im >100€ bereich ein 256bit SI haben
danke, das haben wir ja behauptet und das werden auch die nächsten mainstreamkarten von amd laut tabelle haben
eine 4470 liegt im preis deutlich drunter
ich weiss nicht wer dieses gerücht in umlauf gebracht hat, aber es hält sich hartnäckigMacroWelle schrieb:PCIe 2.0 liefert bis zu 150 Watt über den Steckplatz des Mainboards.
der slot kann immernoch max. 75w bereitstellen
RubyRhod
Commodore
- Registriert
- Jan. 2006
- Beiträge
- 4.305
Rasemann schrieb:GDDR 5 hat bei gleichem Takt den doppelten Durchsatz.
Quadchannel eben.
Das hat doch nichts mit Quadchannel zu tun..
GDDR1 und 2 = zweifach-prefetch
GDDR3 und 4: vierfach-prefetch
GDDR5: achtfach-prefetch
Das einzige, was GDDR5 ist, ist DDR3 auf Grafikkarten...
Zuletzt bearbeitet:
G
Gelbsucht
Gast
@31
250 Watt sind für eine Doppelkarte mit der angepeilten Leistung niemals zu hoch. Vor nicht allzu langer Zeit verbrauchte das ein EinGPU-Topmodell alleine...
250 Watt sind für eine Doppelkarte mit der angepeilten Leistung niemals zu hoch. Vor nicht allzu langer Zeit verbrauchte das ein EinGPU-Topmodell alleine...
Mystic-Car
Cadet 4th Year
- Registriert
- Sep. 2007
- Beiträge
- 93
C.J. schrieb:Achso, das meinst du. Das mit dem Multi-Chip-Design bezieht sich afaik auf den ursprünglichen R700, welcher dann wohl auch eine neue Architektur haben sollte. Der wurde allerdings vorerst auf Ende '08/Anfang '09 verschoben und es wird dieser RV670-Refresh dazwischengeschoben, um im Leistungssegment noch konkurrenzfähig zu bleiben.
Autsch
Davon stand nirgendwo was. *sich schäm*
Auch ein "Entschuldigung" an benses ;D
Grüße
Mmh interessante Daten wenn die wirklich und die Leristung stimmt wäre das ne Gelegenheit meine Schrottvidia raus zu hauen.
Was ich aber als negativ empfinde wäre bei den Topmodellen das der Ram nur mit 256 Bit angebunden ist naja noch ist ja nix bestätigt.
Was ich aber als negativ empfinde wäre bei den Topmodellen das der Ram nur mit 256 Bit angebunden ist naja noch ist ja nix bestätigt.
@ xxxx: Und auch nochmal extra für dich: Das magere Speicherinterface ist völlig egal bei den hohen Taktraten der Grafikspeicher. Du kannst also beruhigt zugreifen, wenn sie denn so kommen sollten und auch sonst konkurrenzfähig sind.
Beim Nächsten berichtigt ein anderer, bitte.
@ Makrowelle / bensen: Was stimmt denn nun? Ich schau selbst nochmal. Wenn PCI-E 2.0 tatsächlich 150W schaffen würde, könnten mit etwas Glück sogar die High-End-Karten hier damit befeuert werden.
Edit: Wiki sagt leider nichts.
Beim Nächsten berichtigt ein anderer, bitte.
@ Makrowelle / bensen: Was stimmt denn nun? Ich schau selbst nochmal. Wenn PCI-E 2.0 tatsächlich 150W schaffen würde, könnten mit etwas Glück sogar die High-End-Karten hier damit befeuert werden.
Edit: Wiki sagt leider nichts.
Zuletzt bearbeitet:
Heelix
Commander
- Registriert
- Okt. 2007
- Beiträge
- 2.438
Ich hoffe viel mehr das ATI es mal schafft das Crossfire Problem zu lösen.
Multi GPU ist ein sehr gutes Prinzip und ist verglichen mit dem Entwickeln von extra Lösungen für die Segmente weit überlegen.
Nur ist dieses x2 : " Ich packe 2 Chips auf ein pcb " und musst dann 2xSpeicher verbauen ... controller und deutlich größere Abmaße in Kauf nehmen nicht gut.
Lösung: 2 Chips auf einen Träger, quasi ähnlich der CPU Dual Core technik aber anders *g
Problem: Es gibt momentan keine Praktikable Anbindung der GPU Kerne untereinander benötigt werden ca. 100 gb/s
Lässt sich dieses Anbindungsproblem lösen, ggf. durch die Hilfe von IBM ... könnte AMD extrem günstig sehr potente Karten bauen ohne jegliche Nachteile (siehe FrameTime Verlauf bei CF & Sli ) durch den "Dual Core" .
Aber doch die Eckdaten wenn sie stimmen sollten von den 4870 sind sehr interessant und sollte sie so kommen wird sie im Sommer in meinem PC landen .
Multi GPU ist ein sehr gutes Prinzip und ist verglichen mit dem Entwickeln von extra Lösungen für die Segmente weit überlegen.
Nur ist dieses x2 : " Ich packe 2 Chips auf ein pcb " und musst dann 2xSpeicher verbauen ... controller und deutlich größere Abmaße in Kauf nehmen nicht gut.
Lösung: 2 Chips auf einen Träger, quasi ähnlich der CPU Dual Core technik aber anders *g
Problem: Es gibt momentan keine Praktikable Anbindung der GPU Kerne untereinander benötigt werden ca. 100 gb/s
Lässt sich dieses Anbindungsproblem lösen, ggf. durch die Hilfe von IBM ... könnte AMD extrem günstig sehr potente Karten bauen ohne jegliche Nachteile (siehe FrameTime Verlauf bei CF & Sli ) durch den "Dual Core" .
Aber doch die Eckdaten wenn sie stimmen sollten von den 4870 sind sehr interessant und sollte sie so kommen wird sie im Sommer in meinem PC landen .
w0mbat
Lt. Commander
- Registriert
- Juni 2006
- Beiträge
- 1.282
Wieso mosern hier alle an der 256-bit Speicheranbindung rum? Die Speicheranbindung kann niemals limitieren, auf Basis der Speicheranbindung kann man also rein gar nichts über die Performance aussagen.
Das was limitieren kann ist die Speicherbandbreite, die sich aus der Speicheranbindung und dem verwendeten VRAM bzw. dessen Takt zusammensetzt. nVidia verwendet z.Zt. noch GDDR3, welcher max. mit etwa 1GHz (2GHz DDR) takten kann. Mit einem 384-bit SI und 1GHz GDDR3 erreicht man also eine Speicherbandbreite von 96 GB/s.
AMD verwendet zwar ein kleines 256-bit SI, koppelt dieses aber mit sehr schnellem GDDR5 VRAM, welcher bei der HD4870 mit 2,2GHz (4,4GHz DDR) takten soll. Dadurch erreicht man eine Speicherbandbreite von 140,8 GB/s, was üngefähr dem doppelten einer HD3870 entspricht und deutlich mehr ist als selbst eine 8800Ultra hat.
Also, bevor hier wieder gemoser wird sollte man sich informieren.
Das was limitieren kann ist die Speicherbandbreite, die sich aus der Speicheranbindung und dem verwendeten VRAM bzw. dessen Takt zusammensetzt. nVidia verwendet z.Zt. noch GDDR3, welcher max. mit etwa 1GHz (2GHz DDR) takten kann. Mit einem 384-bit SI und 1GHz GDDR3 erreicht man also eine Speicherbandbreite von 96 GB/s.
AMD verwendet zwar ein kleines 256-bit SI, koppelt dieses aber mit sehr schnellem GDDR5 VRAM, welcher bei der HD4870 mit 2,2GHz (4,4GHz DDR) takten soll. Dadurch erreicht man eine Speicherbandbreite von 140,8 GB/s, was üngefähr dem doppelten einer HD3870 entspricht und deutlich mehr ist als selbst eine 8800Ultra hat.
Also, bevor hier wieder gemoser wird sollte man sich informieren.
Unyu
Banned
- Registriert
- Okt. 2004
- Beiträge
- 6.891
@darko2
Die 75W per Slot stimmen natürlich weiterhin bei PCIe 2.0.
Das wäre auch ein wenig unsinnig mal eben 75W zusätlich quer übers MB spazieren zu fürhren.
Eventuell sollte CB die SI Angabe ganz weglassen und nur die Bandbreite angeben.
Die 75W per Slot stimmen natürlich weiterhin bei PCIe 2.0.
Das wäre auch ein wenig unsinnig mal eben 75W zusätlich quer übers MB spazieren zu fürhren.
Das ist echt nicht zum aushalten. Pseudo Wissende, die damit glänzen zu wissen, das ein dickes SI besser als ein dünnes SI.w0mbat schrieb:Wieso mosern hier alle an der 256-bit Speicheranbindung rum?
Eventuell sollte CB die SI Angabe ganz weglassen und nur die Bandbreite angeben.
Magellan
Fleet Admiral
- Registriert
- Apr. 2006
- Beiträge
- 22.545
Einige werdens nie kapieren...
wie breit das speicherinterface ist ist vollkommen unbedeutend - allein die kombination speicher+interface (-> Datendurchsatz) zählt.
Ob ich ne 2spurige Straße habe auf der alle mit 50km/h fahren oder aber nur ne einspurige straße habe auf der dafür alle mit 100kmh fahren macht keinerlei unterschied.
wie breit das speicherinterface ist ist vollkommen unbedeutend - allein die kombination speicher+interface (-> Datendurchsatz) zählt.
Ob ich ne 2spurige Straße habe auf der alle mit 50km/h fahren oder aber nur ne einspurige straße habe auf der dafür alle mit 100kmh fahren macht keinerlei unterschied.
Ähnliche Themen
- Antworten
- 519
- Aufrufe
- 61.532
- Antworten
- 65
- Aufrufe
- 11.724
- Antworten
- 117
- Aufrufe
- 18.008
- Antworten
- 22
- Aufrufe
- 10.037
- Antworten
- 32
- Aufrufe
- 5.826