News Details zur Radeon-HD-4000-Serie von AMD

2.016 GFLOPs

Also wenn das stimmt dann ist das ein Meilenstein Für Grafikkarten dann liegen die Games weiter hinten mit der Hungrigen Grafikpower und mann Braucht sich nicht immer ne Neue Grafikkarte zu kaufen wie z.b eine 5950Ultra,6800Ultra,7950GTX2,8800Ultra,9800X2 das ist alles Geldverschwendung wenn sich die Leistung nicht verdopelt oder verdreifacht z.b von ner 8800Ultra auf ne 9800X2 zu wechseln ist Geldverschwendung
 
scheinbar denken hier alle nur in MB/s(oder gar noch beschränkter in anbindungs-bit) und vergessen dabei völlig das wir immer noch pixelweise rechnen.

viel entscheidener als die Frage ob da 20*4096er Texturen pro Sekunde durchpassen ist die Frage wie lange eine Grafikkarte auf die jeweils kleinen Pakete warten muss und in der zeit sich langweilt.

Ein intelligentes und nah angebundenes Speicherkonzept würde selbst bei 24bit Breite(1 farbwert) und vielleicht "normalen" gddr4 schon mehr erreichen als die Schlacht hier um die tausende von MB/s.


Schade das NV und Ati da immernoch nach dem Prinzip gehen : wer mit Kanonen auf Spatzen schießt wird schon treffen.
 
Zuletzt bearbeitet: (verschreibselt)
also was manche hier schreiben über den stromverbrauch:stacheln: da wird man echt stink sauer:mad:

wer weiss das schon was die next x2 wirklich verbrauchen wird:confused_alt:

sollte es wirklich stimmen mit max 250watt verbrauch, und das eine leistung von rv680xt quad cf:o:daumen:


dann überlegt und rechnet doch mal genau nach:freak: was verbraucht rv680xt ?

was würde dann rv680xt im quad cf verbrauchen? wenn man die leistung der next x2 mit 2.016GFLOPs ran kommen muss?

glaub sowas versteht ihr nicht was?

und das die 250watt euch so abschreckt:freaky: zwingt euch einer die zu kaufen oder wie?:freak:

ich glaub auch ihr wisst gar nicht mal was 2.016GFLOPs sind oder?
 
Zuletzt bearbeitet:
yea .. Ati scheints mit dem Spitzenkampf ernst zu meinen..^^ ich glaub ich hol mir die 4 8 70 von Sapphire
 
Was wäre wenn 4 oder 8 GPU's..? Das ist doch alles Quark, egal wieviele GPU's da verbaut werden, die Richtung in die bezüglich der Leistungsaufnahme gegangen wird, ersehe ich als Falsch.

Umso mehr GPU's verbaut werden, ist es doch nur Logisch, dass pro GPU weniger Leistung abverlangt wird. Daraus resultiert auch weniger Leistungsaufnahme, bedeutet weniger Wattverbrauch unter Last.

Vielleicht sollten die Hersteller das mal von dieser Seite betrachten, es kann nicht sein, dass immer mehr Chips verlötet werden und der Stromverbrauch stetig ansteigt. Wobei ich den Idle Verbrauch, wenn es dann wirklich so kommen sollte, sehr gut finde.

Gruß.
 
Um es noch mal zu verdeutlichen: Ich meinte mit Quadcore, ein Quadcoresystem inklusive Arbeitsspeicher und dem Drum und Dran.
Transistoranzahl muss nicht proportional zur Stromaufnahme sein. Dieses erkennt man schon an Powerplay. Nicht jeder Transistor wird selbst bei einem auslastenden Benchmark benutzt.

Teile die Auffassung von Realsmasher. Was nutzt uns die schnellste Technik, wenn sie nicht optimal ausgenutzt wird.
Folding@Home ist nun nicht der Anwendungszweck, für den die meisten hier Grafikkarten kaufen.

@Realsmasher: Das gängige FP 24 oder sogar FP32 würde bei 24 bit Breite doch arg in die schranken gewiesen, oder nicht?
Siehe hier: http://de.wikipedia.org/wiki/Framebuffer
 
Wow. Da hat sich AMD/Ati ja mächtig ins Zeug gelegt. Ich bin NVIDIA user. Aber ich muss sagen das diese ATI-Karten recht Interessant sind. Bin mal gespann was wir als nächstes von NVIDIA zu sehen kriegen. Und auf erste Benchmark warte ich auch schon gespannt.

Gruss PPB
 
die ATi Radeon HD 4870 X2 wird meine ati radeon 9250 se ablösen egal was sie kostet. 600 euro ist mein limit. damit ich mal richtig zocken kann ich hab lange genug gewartet
 
PPB schrieb:
Wow. Da hat sich AMD/Ati ja mächtig ins Zeug gelegt. Ich bin NVIDIA user. Aber ich muss sagen das diese ATI-Karten recht Interessant sind. Bin mal gespann was wir als nächstes von NVIDIA zu sehen kriegen. Und auf erste Benchmark warte ich auch schon gespannt.

Gruss PPB

Nachdem, was man so munkelt wird der nächste Chip ein ziemliches Monster werden mit ca. 3x 8800GTX-Leistung. Das sind aber alles nur Gerüchte und selbst wenn es stimmt, sollte man sich bewusst werden, dass dieser Chip weit über 600€ kosten wird bei der großen Die-Fläche. Dürfte dann mit der X2 konkurrieren.
 
Also zu der Behauptung PCI-e 2.0 soll 150 Watt an die Graka liefern können..
kann ich nicht ganz glauben.. außerdem steht in der Beschreibung auf der englischen Wiki (link) nichts davon. Eher davon dass durch die neue Version die Standard-Bandbreite, mit der die Grafikkarte angebunden ist, von 2,5 GB/s (PCI-e 1.1) auf 5 GB/s verdoppelt wird.

Auch zur Abwärtskompatibilität sowohl des PCI-e 2.0 Steckplatzes als auch der Grafikkarten mit PCI-e 2.0 Anschluss stehen in obigem Link interessante Dinge. (Da hier so häufig danach gefragt wird)..

BTT: Ich finde, von der zu erwartenden Rechenleistung, Shaderleistung sowie Speicherbandbreite her, sollten diese Karten schon ziemlich rocken. Wohl mit ziemlicher Sicherheit. (Vorausgesetzt natürlich, die Daten in dieser News entsprechen dann den tatsächlichen Spezifikationen). Da die Architektur nun schon bekannt ist und daher wohl keine bösen Überraschungen drohen wie beim R600-Release, wo sich herausstellte, dass viel zu wenig Texturfüllrate bereitgestellt wird. AMD/ATI weiß jetzt genau, worauf es bei der Architektur ankommt, und kann, neben der allgemeinen Erhöhung von Takt und Einheiten (z.B. Shader, TMUs), auch punktuelle Verbesserungen wie z.B. die Änderung des Verhältnisses (betreffend Anzahl) von TMUs zu ROPs und Shadereinheiten vornehmen. Dadurch wird die Effizienz der Architektur noch um einiges besser ausfallen als bei der HD-38xx-Serie.
 
Zuletzt bearbeitet:
boa1 die x2 mit 2.016 GFLOPs.krass. mal schaun wie sich das entwickelt...

wie gewohnt erwarte ich gespannt auch einen test von CB wenn die karten raus sind
 
Hab ich was verpasst oder wo sind die 8 aneinander geschraubten Low-End-Chips @ Super High-End-Graka? Sind ja dann prinzipiell doch nur, oder besser gesagt zum Glück, Single-Chips...
 
ScoutX schrieb:
@Realsmasher: Das gängige FP 24 oder sogar FP32 würde bei 24 bit Breite doch arg in die schranken gewiesen, oder nicht?

völlig richtig, das ist ja ein Problem der aktuellen Architekturen.

Die Sache ist das völlig unnötig Daten übertragen werden... ausgegeben werden eh nur 24bit pro pixel, also warum ständig alles hin und her transferieren anstatt das intern in einem schnellen Cache verwalten ?

Genauso wie volle Texturen abgespeichert und geladen werden, auch für Objekte die garnicht groß genug sind diese Texturauflösung darzustellen.


Überall schlagen sie um sich mit Speichergröße und benötigter Bandbreite, aber anstatt die Strukturen umzubauen um das einzuschränken wählt man den einfachereren Weg über mehr und schnelleren Speicher.


Bin von der Entwicklung wirklich enttäuscht.
Die R700 Serie sollte ja ursprünglich Mehrchip-Skalierbar werden(laut Gerüchten), ähnlich dem VSA-100.
DAS wäre mal ein fortschritt gewesen.

So treten wir hier praktisch nur auf einer stelle etwa seit der gf5/Radeon 9000er serie.

Es ist als würden die Designer nur copy und Paste in Paint machen und somit die chips vergrößern, die über kleinere Fertigungsgrößen und DIE-Shrinks dann wieder kleiner werden.



Ach waren das noch schöne Zeitenwo es noch sowas wie den Kyro gab oder eben die VSAs. Hoffentlich erleben wir sowas wieder mit dem Eintritt von Intel ins High-End Geschäfft.
 
Gelbsucht schrieb:
@31

250 Watt sind für eine Doppelkarte mit der angepeilten Leistung niemals zu hoch. Vor nicht allzu langer Zeit verbrauchte das ein EinGPU-Topmodell alleine...

Ok, da hast Du Recht. Sind ja eigentlich zwei Karten. :)
 
Sehe ich auch so.
Eigentlich fand ich die CrossfireX(Hybrid-SLI Entwicklung mit der Abschaltung der diskreten Grafikkarte sehr interessant (PowerXpress). Aber wenn durch Powerplay eine so geringe Leistungsaufnahme im Idle erreicht wird, kann man darauf verzichten.
So erreicht auch ein starkes Gamer-System im Idle eine sehr geringe Leistungsaufnahme.
 
Hoffe mal die kommen bald...in 0-1Jahren hoffe ich, dass die Karten draußen sind, die HD4870 wäre schon sehr interressant, hoffe mal wird dann für unter 300Euro zu haben sein!
Ich sag ja, ATI hat weniger Geld als Nvidia, aber investiert Trotzdem...die Karten werden sich Wohl mit der 9000er Reihe von Nvidia messen müssen, aber ich schätze mal auf Gleichstand...
Wobei ATI die beiden Chips ordentlich auf eine Karte zaubert..., ich hoffe mal, dass mehr CF/SLi-Unterstützung kommt und dass CF/SLI dann noch deutlich besser Skalieren wird!
MfG
 
Der Idleverbrauch ist spitze. Der unter Belastung bei den High-Endern eher weniger..
Wenn irgendwann mal attraktive Spiele mit DX10 rauskommen (also abseits von Shootern), werd' ich meine X1950Pro wohl mal in der Ruhestand schicken, wenn 's dann einen guten Nachfolger gibt.
 
die performance hat eben ihren preis, zaubern können die auch nicht
solange der idle-verbrauch stimmt und die karten noch gut zu kühlen sind seh ich kein problem
 
Zurück
Oben