News Details zur Radeon-HD-4000-Serie von AMD

jap aber eben das haben viele noch net begriffen. Anstatt sich mal hinsetzen und ihr Idle/Last Verhältnis am PC beobachten und mal über nen gewissen Zeitraum zu notieren wird immer gleich rumgeflamed.

Einzigster Nachteil ist das man bei 2 dieser Karten ein richtig dickes Netzteil braucht, welches in Idle dann nur noch minimal belastet und somit meist uneffizient wird.
 
HD 4870 ist mit 150 Watt unterwegs? Von der X2 erst garnicht zu sprechen... O_o, wenn sich das bewahrheitet, dann ist das definitiv ein gewaltiger Schritt in die falsche Richtung... Prost Mahlzeit Jungs :freak:
 
Krautmaster schrieb:
jap aber eben das haben viele noch net begriffen. Anstatt sich mal hinsetzen und ihr Idle/Last Verhältnis am PC beobachten und mal über nen gewissen Zeitraum zu notieren wird immer gleich rumgeflamed.

Einzigster Nachteil ist das man bei 2 dieser Karten ein richtig dickes Netzteil braucht, welches in Idle dann nur noch minimal belastet und somit meist uneffizient wird.


Danke!
 
OMG, Was habt ihr alle mit dem Stromverbrauch? :eek:
DIE HD4000 SERIE IST MULTI_GPU! (ab Midrange)


Also nix mit 1GPU Kern, sondern gleich mehrere ;D
"Aufgebohrter 3000er" Ja klar, wie gesagt MULTI GPU.
Also mehrere Kerne in einen DIE....

Grüße
 
Ich finde die Nachricht über ein Powerplay+ am besten. Hätte es schon viel früher geben sollen. Ich frage mich wie viele Transistoren wohl der neue Chip hat? Wird wohl auch an der 1 Mrd. Grenze kratzen. Vor allem frage ich mich, ob AMD weitere Fortschritte gemacht hat im Bereich des AA. Den Stromverbrauch unter Last finde ich eigentlich akzeptabel. Da wird es wohl erst wieder eine Verbesserung geben, wenn der Chip wieder verkleinert wird. Allerdings ist mein Computer zu 90% sowieso im idle.
 
Ich würde mich über diese Daten nicht echauffieren. Nichts ist bewiesen.
Und sollte AMD gar die 4000er Reihe mit ein paar neuen Rechenkunststücken versehen haben, ist die aktuelle Leistung in Spielen und die Bildqualität überhaupt noch nicht fix.

Meiner Meinung nach stellt diese Reihe aber nur eine aufgebohrte Variante des R600 dar und dürfte durch die dann immernoch schlechte Architektur, DirectX10 kaum einen Performanceboost einbringen. Viele versteifen sich hier auf Dinge wie Shadereinheiten, Speicherbandbreite und Bitinterface. Nur ob die Rohleistung entsprechend in Performance umgesetzt werden kann, muss bis zum Launch angezweifelt werden.

Powerplay+ halte ich auf dem Papier auch für sinnvoll, aber wie schon so viele Energiesparwunderfunktionen auf dem Papier ihr Debüt gefeiert haben, so haben auch genausoviele ihre Versprechen nicht erfüllen können.

Was haben wir nicht letztes Jahr über den R600 spekuliert und Leistung/Watt ist erst mit dem Relaunch in der 2.ten Generation "erträglich" geworden.

Sollten sich diese Daten bewahrheiten und tatsächlich bis zu 250W verpulvert werden, muss man sich langsam Gedanken machen, ob die jetzige GPU-Architektur nur von Stümpern erstellt wurde. Denn solche Werte zieht kaum ein Quodcore an Strom. Besonders die Lowendkarten sollten nicht mehr Strom verbrauchen (ein Indiz für ein R600-Refresh und keine Neuentwicklung). Zumindest sollte man den GPU-Herstellern raten, schnellstmöglich auf 32nm umzustellen, oder eine neue Mainboardspezifikation herausbringen. Grafikkarten werden langsam aber sicher hinfällig. Ein separater austauschbarer Grafikchipplatz auf dem Mainboard mit Kühlkörpern der Hightowerklasse sind angebracht. Dann haben wir halt 2 Orochi im Gehäuse. Dazu würde ich eine extra RAM-Bank nur für Grafikleistung in das Mainboard integrieren. Dazu wird es aber wohl nie kommen, da die Chipsatzhersteller ala Intel sich wohl nie auf so eine Neuerung einlassen werden. Die vermarkten lieber ihre eigenen IGPs mit bis jetzt unterdurchschnittlicher Leistung. Austauschbare Grafikchips sind nicht eingeplant.
 
Nehebkau schrieb:
Naja ein paar Shader mehr würden wohl nicht schaden oder? =/ scheint keine grosse Leistungsrevolution zu werden...
hö? wenn diese daten stimmen wären das:
+100% rechenleistung
+150% texelfüllrate
+100% speicherbandbreite

für mich ist das sehr viel

Mystic-Car schrieb:
DIE HD4000 SERIE IST MULTI_GPU! (ab Midrange)
Also nix mit 1GPU Kern, sondern gleich mehrere ;D
sagt wer?
ich wette das ist zu 100% falsch
 
Zhan schrieb:
oh, die idle-wattzahlen sind ein traum. da verzichte ich auch gerne auf ein paar prozent spitzenleistung gegenüber der nvidia

genau das hab ich mir auch gedacht :cool_alt:
aber erstmal die ersten tests abwarten.
 
Moonstrucker schrieb:
HD 4870 ist mit 150 Watt unterwegs? Von der X2 erst garnicht zu sprechen... O_o, wenn sich das bewahrheitet, dann ist das definitiv ein gewaltiger Schritt in die falsche Richtung...
Und ~20 Watt bei Idle? Hättest du dir die Mühe gemacht, die Posts vor dir zu lesen, hättest du sicher nicht so ein "qualtiativ hochwertigen" Beitrag gepostet:rolleyes:
 
@ScoutX

die Archikektur würde ich nicht schlechtreden. Die auf R600 basierten GPU stehen garnicht so schlecht da. Nvidia hat früh erkannt das man auf texturleistung setzen muss. Die Füllrate ist bei weitem höher als bei den R6XX Grafik Chips. Mit kommender Generation werden sie diese Leistung nochmals erhöhen.

AMD/ATI verdoppelt zurecht ihre Textureinheiten um hier Boden gut zu machen. Insbesondere Crysis profitiert zB meines Wissens von hoher Texturleistung. Die Architektur hat mit der HD3XXX Reiche schon eine Veränderung durchgemacht. Teures 512 Bit Speicherinterface wurde aufgegeben und anderer Bereich aufpoliert. Langsam wird die Architektur optimiert und es geht in die richtige Richtung.

Nvida hat ein gut abgestimmtest Gesamtbild. Volltreffer gelandet. Zurecht. Man muss den G80 loben. Mit 90nm machen sie alle 55nm Chips noch immer fertig wenn es um intensive Auslasutung bei hoher Auflösung geht. Der G92 ist aber meiner Meinung nach nicht auf der Höhe. Grafikkarten von AMD beinhalten 10.1., haben fortschrittlichere tressilationseinheiten sowie 5.1 onboard. Auch überzeugen die Stromspar Modi viel viel besser als die von Nvidia.

Alles in allem würde ich sagen AMD kann mit der jetztigen Architektur noch viel reißen während Nvidia den G92 schon recht breitgetreten hat. Allerdings hat Nvidia den Vorteil das ein komplett neuer Chip mit doppeltsovielen Shadern und Dx10.1 schon so gut wie sicher in einer Schublade liegt und nur herausgeholt werden muss. Sie hatten auch mehr als genug Zeit. Der G92 ist wie der Name verrät eine günstige Übergangslösung zur next Gen.

Man darf gespannt sein wie sich die chips gegeneinander schlagen. Nvidia wird auf eine SingelGPU Karte setzen. Spricht mich für meinen Teil besser an. Bietet diese sehr gute Leistung hat man in Verbindung mit einem zukünftigen HybridSLI Board ATIS Powerplay ausgestochen.

Im Sommer werden wir es wissen.
 
Papabär schrieb:
"Die Anzahl der ROPs bleibt wie bei der HD 3870 und HD 3850 bei 16, ebenso das Speicherinterface weiterhin bei 256 Bit, dafür wird die Anzahl der Textureinheiten (TMUs) auf 32 verdoppelt und die der Shadereinheiten auf 96 (5D) erhöht."

Nur 32 , die jetztigen Geforce 8 Karten haben bereits 64TMU's! Oh man das wird die Leistungsfähigkeit ganz schön einschränken(is ja kaum besser als die jetzigen HD38xx Serien)! Hoffe das die Infos nicht die finallen Spez. sind, sonst sehe ich schwarz für AMD/ATI!!!

Texturfüllrate ist nicht alles. Man sollte zwischen Texturleistung und Shaderleistung eine gute Balance halten. Der RV670 hat zu wenig Texturleistung und die 8800er meiner Meinung nach zu viel.

Soul_Ripper schrieb:
Diese Daten zeigen mir das man nicht alles glauben sollte was so im Inet steht. Denn nur ein 256Mb Interface? Das ist auf jedenfall zu wenig.

Kommt immer auch auf den Takt und die gesamte Speicherbandbreite drauf an. Der Speichertakt wird ja schon nahezu verdoppelt (4,4 Ghz). Dann noch auf 512 bit SI zu setzen wäre der Overkill. Der R600 ist ein schönes Beispiel dafür, dass Bandbreite nicht alles ist.

Tulol schrieb:
Nur mal so nebenbei.

Zurzeit gibts keine CPU/MB die in der Lage wären eine Aktuelle Toprange GraKa schnell genug mit Daten zu versorgen.
Soll heißen: Die aktuellen(!) top grakas trödeln vor sich hin weil sie auf den Rest des Rechners warten müssen.

Im Moment wird man mit noch schnelleren Grakas wenig bis gar keine Mehrleistung bekommen solange es keine bahnbrechend neuen, schnelleren CPUs sowie Speicher und deren Anbindung an den Rest des Systems gibt.

Halte ich für ein Gerücht. In solchen Fällen wird die Auflösung und das AA einfach hochgeschraubt. Wenn es so wäre, wie du sagst, dürften aktuelle GPUs ja kaum Leistung in hoher Auflösung/viel AA verlieren. Tun sie aber.

RubyRhod schrieb:
Also entweder 'AMD bietet... an' oder 'AMDs .. sind ... ' (ohne "an")

Ich hätte an AMD's stelle den Laden mal aufgeräumt...

HD 4300: 64bit Speichterinterface, standardmäßig passiv gekühlt, 8 Shader, Takt von circa 500, GDDR2 (~400Mhz) (Stromaufnahme bei circa 40W)
HD 4500: 128bit Speicherinterface, doppelslot-passivkühler, 32 Shader, Takt von circa 700, GDDR3 (~700Mhz) (Stromaufnahme um die 60W, kein PCIe-Stecker benötigt)
HD 4700: 256bit Speicherinterface, doppelslot Heatpipe-Kühler mit 70mm Lüfter, 80 Shader, Takt von circa 1000, GDDR3 oder 5 (~1200-1800Mhz) (Stromaufnahme um 120W, ein PCIe-Stecker reicht)
HD 4800: 384bit Speicherinterface, doppelslot-Heatpipe-Kühler mit 70mm Lüfter, 112 Shader, Takt von circa 1000, GDDR5 (~2200Mhz) (Stromaufnahme bei knapp 200W, zwei PCIe-Stecker, 6pol. werden benötigt)

Und nun vllt welche Karten man konkret anbieten könnte:
HD4300:
4310 - sehr niedrige Taktraten, passiv gekühlt, auf Multimedia ausgelegt (HDMI bzw Display-Port mit Audiounterstützung) preislich sollte sie sich um 40€ ansiedeln
4330 - der große Bruder der budget-Karte, auch hier sollte eine passive Kühlung und ein Augenmerkt auf das Multimediale gegeben sein, 50€
HD4500:
4530 - hier werden die viel zu langsamen 2600/36x0 ergänzt, die sich nicht zum spielen eigneten. preislich siedelt sie sich um die 90€ an, bietet aber bereits genug spieleleistung, um aktuelle spiele auf low bis mid details darzustellen
4550 - die Karten zielt auf gelegenheitsgamer ab, preislich siedelt sie sich um die 120€ an
HD4700:
4750 - bei dieser Karte finden wir das beste P/L der 4xxx Serie. preislich bei circa 180€ bietet sie wesentlich mehr performance im vergleich zur 38x0 Serie.
4770 - etwas um die 220€ steht diese Karte im schatten des kleinen bruder
HD4800:
4870 - diese leicht abgespeckte High-End-Version erinnert an den Vergleich GTX <-> GTS: für grob 280€ gibt es hier Performance im High-End Bereich
4890 - der Performance-König schluckt zwar Strom ohne Ende, bietet allerdings unglaublich viel Power, um Crysis auch auf High-Details mit einem 22" Widescreen flüssig zu spielen. Preislich dürften hier wohl um die 350€ fällig sein.

Vielleicht hätte ich bei der Namensgebung etwas mehr marketingorientiert vorgehen sollen und bei jeder Modellreihe eine 7 oder 9 in die Mitte setzen sollen, allerdings finde ich das ganze so am besten.

Alles in allem habe ich leider ein "Loch" in das Preissegment um die 65€ und um die 150€ gerissen, allerdings sollte AMD hier nicht den eigenen Karten 3650 und 3850 Konkurrenz machen - insofern war das ganze durchaus gewollt!

Naja, ob man sich die Chips so nach Belieben zusammenbasteln kann, ist auch wieder fraglich. In der Regel gibt es allein zwischen den einzelnen Einheiten schon Abhängigkeiten in der Anzahl. Alle Geforce 8xxx Chips haben beispielsweise doppelt so viele Filtereinheiten wie Shadereinheiten. Und Speichermenge- und Interface muss auch gleich stark steigen/sinken. Außerdem müsste ATI für deine Lösung statt 3 Chips 4 Chips entwickeln, die durch die unübliche Anzahl an Einheiten auch noch eine ungerade Anzahl an Clustern verbauen müsste (112 Shader = 7 Cluster).

Krautmaster schrieb:
wenn der GDDR5 wirklich soviel Takt von Beginn an ab kann... dann ist das mt den 256 Bit wirklich kein Problem mehr. Zumindest wenn man die Shaderleistung im Verhältnis zum Speicher nimmt. Heute ist ersteres eh von weit mehr Bedeutung.

Solangsam wird es auch zeit das 1 Gb ram auch bei High End Kommt. Bei Midrange einfach unsinn. Was aber mögen 2 Gb GDDR5 kosten? Muss die X2 auch alles doppelt in den Vram packen oder kann sie die vollen 2 Gb auch sinnvoll nutzen?

Gruß

Lässt sich daraus noch nicht schließen. Falls ATI wieder auf simples AFR setzt (was ich allerdings nicht hoffen möchte), dann wird man auch wieder für jeden Chip den vollen Speicher verbauen müssen.

AMD731 schrieb:
man man man....die sollen doch erst mal den schrott verbessern, den die schon raus gebracht haben, und nicht den markt mit neuem schrott bombardieren....

Die verbessern doch gerade ihren "Schrott", oder was glaubst du, worauf die 4000er Serie basiert? Ne neue Architektur werden die nicht mal eben so schnell aus dem Ärmel schütteln.

Mystic-Car schrieb:
OMG, Was habt ihr alle mit dem Stromverbrauch? :eek:
DIE HD4000 SERIE IST MULTI_GPU! (ab Midrange)


Also nix mit 1GPU Kern, sondern gleich mehrere ;D
"Aufgebohrter 3000er" Ja klar, wie gesagt MULTI GPU.
Also mehrere Kerne in einen DIE....

Grüße

Wo steht das?

ScoutX schrieb:
Ich würde mich über diese Daten nicht echauffieren. Nichts ist bewiesen.
Und sollte AMD gar die 4000er Reihe mit ein paar neuen Rechenkunststücken versehen haben, ist die aktuelle Leistung in Spielen und die Bildqualität überhaupt noch nicht fix.

Meiner Meinung nach stellt diese Reihe aber nur eine aufgebohrte Variante des R600 dar und dürfte durch die dann immernoch schlechte Architektur, DirectX10 kaum einen Performanceboost einbringen. Viele versteifen sich hier auf Dinge wie Shadereinheiten, Speicherbandbreite und Bitinterface. Nur ob die Rohleistung entsprechend in Performance umgesetzt werden kann, muss bis zum Launch angezweifelt werden.

Powerplay+ halte ich auf dem Papier auch für sinnvoll, aber wie schon so viele Energiesparwunderfunktionen auf dem Papier ihr Debüt gefeiert haben, so haben auch genausoviele ihre Versprechen nicht erfüllen können.

Was haben wir nicht letztes Jahr über den R600 spekuliert und Leistung/Watt ist erst mit dem Relaunch in der 2.ten Generation "erträglich" geworden.

Sollten sich diese Daten bewahrheiten und tatsächlich bis zu 250W verpulvert werden, muss man sich langsam Gedanken machen, ob die jetzige GPU-Architektur nur von Stümpern erstellt wurde. Denn solche Werte zieht kaum ein Quodcore an Strom. Besonders die Lowendkarten sollten nicht mehr Strom verbrauchen (ein Indiz für ein R600-Refresh und keine Neuentwicklung). Zumindest sollte man den GPU-Herstellern raten, schnellstmöglich auf 32nm umzustellen, oder eine neue Mainboardspezifikation herausbringen. Grafikkarten werden langsam aber sicher hinfällig. Ein separater austauschbarer Grafikchipplatz auf dem Mainboard mit Kühlkörpern der Hightowerklasse sind angebracht. Dann haben wir halt 2 Orochi im Gehäuse. Dazu würde ich eine extra RAM-Bank nur für Grafikleistung in das Mainboard integrieren. Dazu wird es aber wohl nie kommen, da die Chipsatzhersteller ala Intel sich wohl nie auf so eine Neuerung einlassen werden. Die vermarkten lieber ihre eigenen IGPs mit bis jetzt unterdurchschnittlicher Leistung. Austauschbare Grafikchips sind nicht eingeplant.

Dass man die R600-Architektur aufbohrt ist an sich nicht schlimm. Es gibt im Moment keine bessere Möglichkeit. Der ursprüngliche R700 ist wohl noch nicht fertig und rein technisch ist die Architektur durchaus noch brauchbar. Damals beim R420 hat das auch gut geklappt, nur dass man heute nicht das Problem hat, dass die Konkurrenz einen höheren Tech-Level hat (der ja dann DX11 wäre).

Ich finde die Architektur des R600 auch nicht schlecht. Sie wirkt nur so, weil der G80 so ein Volltreffer war.

Die 250 Watt Stromverbrauch beziehen sich ja nur auf die X2, was ich erstmal als SLI-Lösung werten würde. Ein einzelner Chip sollte die jetzige X2 locker schlagen und zusätzlich noch unter 150 Watt verbrauchen. Mehr lässt sich aus den 55nm wohl nicht rausholen.

Oh gott, ich hab mal wieder viel zu viele Beiträge gequotet :p
 
Finde, dass die 250Watt für das Spitzenmodell in Ordnung gehen, insofern die Karten im Idle tatsächlich nur 20 Watt verbrauchen sollten. Unterm Strich wär man dann im Vergleich zu den aktuellen Karten sicherlich nicht unbedingt schlechter gestellt. Bleibt nur zu hoffen, dass die Stromsparfunktionen auch wirklich funktionieren - ansonsten eine Fehlentwicklung...
 
Wieso steht eigentlich in den News "AMD" und nicht "ATI" bzw "ATI/AMD" ? :)

PhysX Karten heißen ja noch immer PhysX und nicht nVidia :P
 
@Lyroa: PhysX ist der technische Begriff und kein Markenname wie z.B. Ageia.
Nvidia wird in Zukunft unter dem Label Ageia solche Karten nicht produzieren.
Davon ist auszugehen, .... wenn sie denn überhaupt solche Physikbeschleunigerkarten produzieren.
 
@lyora
rofl. physx ist ja auch kein hersteller sondern eine produktbezeichnung
mal davon abgesehen das das gerät vor der übernahme entwickelt und gebaut wurde

ist ja wohl hier bei den grakas nicht mehr der fall
 
Hmm hab ich jetzt irgendwas verpasst? Hieß es nicht immer der R700 würde voll auf multicore gpus bauen? Nun seh ich aber scheinbar nur weiterentwickelte RV670..
Wurde der ursprüngliche R700 eine generation nach hinten verlegt und der RV770 hat damit erstmal gar nichts zu tun oder wie?

Was ich mich auch immer frage ist ob man nicht etwas gegen das "speicherproblem" bei multi gpu grakas tun kann - also ein gemeinsamer speicher auf den beide gpus dynamisch zugreifen können und somit nicht alle daten doppelt gespeichert werden müssen?
 
Zurück
Oben