News ATis DirectX-11-Serie wird Radeon HD 5800?

blackiwid schrieb:
@killermueke wenn diese "dual shader engine" wirklich das ist was die vermuten könnte es sein, das die karten dann vielleicht alle auf den gleichen ram zugreifen

Wenn das hinkommt und wirklich so gut funktioniert wie es soll, dann wäre ds der Durchbruch des Jahrzehnts -- und genau der Punkt, wo AMD mit seiner Strategie der vielen kleinen Chips seit HD3xxx hinwollte.

Shader-lastiger dürfte auch die Zukunft werden, bei immer kleinerer Fertigung fehlt auch irgendwann der Platz für die breiten Anbindungen. Auf Dauer wird man das nicht über die Frequenz retten können.
 
Triplehead? Was macht man damit?

- Filme gucken: Displayränder nerven
- Bildbearbeitung: genauso
- Games: Kopf ständig drehen um alles zu erfassen?
- Office: genauso
- Programmieren: genauso

Was kann man nicht über virtuelle Desktops lösen?
 
@ chorn

Bis auf Filme gucken stimme ich dir in keinem Punkt zu. Aber es zwingt dich ja auch niemand Triple-Head zu nutzen ;-)
 
Auf den Preis bin ich schon gespannt.
Wahrscheinlich wird es aber so werden, dass man sie erst wirklich Ende des Jahres zu einem guten Preis bekommen wird, wenn Nvidia mit seinen DX 11 Karten kommt.
 
Morilu schrieb:
Diese Namensgebung mit leichten Abwandlungen gibt es seit der HD 1xxx Serie und es wäre Schwachsinn jetzt ein Nv Namenswirrwarr anzufangen.

Es gab nur eine x1000 und eine HD 2000 serie :)
Davon abgesehen hast du natürlich recht, spätestens mit dem erfolg der 4000er sprach alles dafür dass es auch mal eine HD 5870 usw geben wird.
 
ich freue mich total und hoffe meine 4870 noch einigermaßen gut los zu werden, is ja keine schlecht karte.

die hd5870 2GB wird dann meine...

kanns kaum abwarten ^^
 
Wichtig wären mir Infos über den Verbrauch im Win-Betrieb. Hier liegt soviel Einsparpotential.
Der Leistungssprung ist doch garnicht so wichtig. Wohl eher das Verhältnis von Preis und Leistung.

Das wird schon werden. Bin gespannt.
 
Bin auch gespannt auf die 5er Reihe, dann kann ich auch endlich mal die DirectX 11 Anwendungen im SDK testen. Mit der CPU läuft das irgendwo bei 0,2FPS

Aber erstmal kommt ne neue CPU+Mainboard ins Haus, bevor die 4850 in Rente geht.


PS: Was würde ich dafür geben das man die Grafikkarte einfach in SleepModus versetzen kann um auf die OnBoard Lösung zu wechseln. Dann wäre der Verbrauch/Abwärme von 110-150Watt besser zu verkraften.
 
chorn schrieb:
Triplehead? Was macht man damit?

Ich hab in der Arbeit (CAD) 3x24" Monitore die leicht U-förmig vor mir sind.

Auf dem linken hab ich ein Auto-CAD 3D-Modell des Bauvorhabens was ich zeichen soll.
Auf dem mittleren hab ich einen Auto-CAD Plan auf dem die 2D Ableitung stattfindet. (Für Werkpläne usw.)
Auf dem Rechten hab ich den ganzen Rest, wie Outlook, Explorer, Telefonanalage etc.

Es gibt also Leute (mich mich ;)) die das ganze sehr sinnvoll finden. Solltest daher nicht von dir auf andere schließen.
 
Die HD 5870 wird natürlich schneller sein als die GTX 285 und das auch unter DX9 und DX10.
Nehmen wir mal die Specs aus der Tabelle weiter vorne im Thread, 900 MHz CPU-Takt, 1100 MHz Speichertakt (GDDR5), 320*5 SPs, 80 TMUs, 32 ROPs und ein 256-Bit-Si.
Dann kommt man auf folgende Eckdaten bei der HD 5870, in Klammern jeweils die Daten der GTX 285, dahinter der prozentuale Vorteil der HD 5870:
Rechenleistung (TFlops): 2,88 (1,06), +172%
Texelfüllrate (GTexel/s): 72,0 (51,8), +36%
Pixelfüllrate (GPixel/s): 28,8 (20,7), +39%
Speicherbandbreite (GB/s): 141 (159), -11%

Somit ist die GTX 285 nur bei der Speicherbandbreite leicht im Vorteil. Insgesamt wird die HD 5870 aber deutlich an der GTX 285 vorbeiziehen.
 
1GB GDDR5 -> Crap! Hoffentlich macht das NV nicht nach, 2GB müssen her!
GDDR 5 -> Power Play -> mit der Stromsparfunktion steht oder fällt die Generation, ein weiteres mal kein Idle Stromsparen ist nicht hinnehmbar...

Aufgrund von nur 1GB Vram könnte es sein das eine 2GB GTX 285 in bestimmten Situationen schneller ist! Texturmods brauchen zb. keine Rechenleistung nur Vram.
 
Zuletzt bearbeitet:
DvP schrieb:
Aber es zwingt dich ja auch niemand Triple-Head zu nutzen ;-)

Gut erkannt!

johnieboy schrieb:
Es gibt also Leute (mich mich ;)) die das ganze sehr sinnvoll finden. Solltest daher nicht von dir auf andere schließen.

Unterstellst du mir gerade, dass ich irgendwo behauptet hätte, dass es nicht sinnvoll sein kann? Vllt. solltest du dich bezüglich Unterstellungen selbst mal an die Ratschläge halten die du anderen zu erteilen versuchst (nur weil du Unterstellungen machst, machen das andere noch lange nicht).

Ich arbeite selbst mit Dualhead - und meistens bleibt der zweite Monitor aus. Bei allen Arbeiten die ich aufgelistet habe. Aus den Gründen die ich aufgelistet habe. Daher mein Interesse.
 
Kasmopaya schrieb:
1GB GDDR5 -> Crap! Hoffentlich macht das NV nicht nach, 2GB müssen her!
Eine 2-GiB-Herstellervariante wird sicherlich folgen. Aber in der relativ günstigen Referenzvariante tun es auch 1 GiB. Es gibt ja auch so gut wie keine Spiele, die von mehr als 1 GiB VRAM auf einer Radeon profitieren.
 
Endlich kommt mal Displayport standardmäßig. Wie geil ist das denn!
Dann war es doch gut, mit keine HD48xx zu holen :)

Gruß Timo
 
Zum guten Schluss sind die ersten 5800er Karten nur unter DX11 Spiele schneller als die 4870/4890. Ich hoffe trotzdem noch auf mind. 30fps bei Crysis mit höhsten Einstellungen, aber das wird wohl ein Traum bleiben - vorerst.
 
@ theorist

Die HD 5870 wird natürlich schneller sein als die GTX 285 und das auch unter DX9 und DX10.


Ich denke die wird auch unter DX11 und DX 10.1 schneller sein :D
 
jetzt mal ganz ehrlich. Was hier teilweise von sich gegeben wird ist echt unfassbar! :evillol:

Zum Glück sind die Besucher von CB und Poster in den Comments nicht repräsentativ für die deutsche/weltBevölkerung...wenn das so wäre, wäre der PC Hardwaremarkt über 500 Mrd. EUR schwer :freak:

Wenn man sich mal reinzieht, dass 80% aller PC-User nichtmal wissen was eine GPU macht geschweige denn das Modell beim Namen benennen könnten.... und hier wird ein Aufleben um eine neue Kartengeneration gemacht, als gäbe es keinen Morgen :D

Ich finds einfach nur faszinierend, wenn manche Menschen hier anfangen "...oh nein soll ich mein vorgestern gekauftes Crossfire 4890 System jetzt schon verkaufen?? Vielleicht hab ich ja 20% mehr Leistung bei 100% aller Spiele, die ich sowieso nur in 1,2% meiner Freizeit spielen kann, weil ich mich zu 95,6% meiner Zeit damit beschäftige neue Hardware zu sichten, einzubauen und zu übertakten!!" :king:

ihr seid echt alle ein paar schätzchen :freaky:
 
MFelgate schrieb:
Das stimmt so pauschal nicht. Sicherlich hat Powerplay mit dem GDDR5-Speicher Probleme oder umgekehrt.
Aber die Ansteuerung des GDDR3-Speichers und vor allem der GPU funktioniert sehr gut.
Z.B. HD4670 mit 8,3 Watt im Idle und die HD4830 taket auch sehr gut und ohne Probleme auf 160 MHz (GPU) und 250 MHz (RAM) runter.

Zugegeben, der Verbrauch der genannten Karten ist wirklich gut geworden ja, dennoch wollte ich eher auf die Enttäuschung beim Launch von PP2 ansprechen. Dass GDDR5 hier nicht gerade unschuldig ist, war mir klar.
Jedenfalls haben sich damals alle auf PP2 gefreut und wurden sehr enttäuscht. Deswegen erwarte ich nicht allzuviel vom Idle Verbrauch. Aber eventuell kann mich AMD dieses Mal positiv überraschen, hoffen wir es.

Ach und hoffen wir einfach gleich mit, dass wirklich der Speicher unter beiden GPU geteilt werden kann. Wäre auch ne enorme Kostenersparnis für AMD.

Edit: Dürften wirklich die ersten Karten sein, welche Crysis auf Maximum und HD Auflösung spielbar auf den Schirm zaubern, eventuell sogar mit 4x AA ;)
 
Zuletzt bearbeitet:
theorist schrieb:
Eine 2-GiB-Herstellervariante wird sicherlich folgen. Aber in der relativ günstigen Referenzvariante tun es auch 1 GiB. Es gibt ja auch so gut wie keine Spiele, die von mehr als 1 GiB VRAM auf einer Radeon profitieren.

Ich glaub nicht das das "bald" sein wird. Halbes Jahr wird man schon warten müssen. Also erstmal das Refernzdesign durch alternative Designs erlauben und dann erst den Vram. So war es zumindest bei der HD 4800.
 
Zurück
Oben