News ATis DirectX-11-Serie wird Radeon HD 5800?

theorist schrieb:
Die HD 5870 wird natürlich schneller sein als die GTX 285 und das auch unter DX9 und DX10.
Nehmen wir mal die Specs aus der Tabelle weiter vorne im Thread, 900 MHz CPU-Takt, 1100 MHz Speichertakt (GDDR5), 320*5 SPs, 80 TMUs, 32 ROPs und ein 256-Bit-Si.
Dann kommt man auf folgende Eckdaten bei der HD 5870, in Klammern jeweils die Daten der GTX 285, dahinter der prozentuale Vorteil der HD 5870:
Rechenleistung (TFlops): 2,88 (1,06), +172%
Texelfüllrate (GTexel/s): 72,0 (51,8), +36%
Pixelfüllrate (GPixel/s): 28,8 (20,7), +39%
Speicherbandbreite (GB/s): 141 (159), -11%

Somit ist die GTX 285 nur bei der Speicherbandbreite leicht im Vorteil. Insgesamt wird die HD 5870 aber deutlich an der GTX 285 vorbeiziehen.

Obs so deutlich ist wird sich zeigen, optimierte Treiber und Spiele vorrausgesetzt. Alle sind geil auf die Karte, ok ich auch *g* Aber mal ernsthaft ob ich nun in einem Spiel 250FPS oder 350FPS ist mir eigentlich wayne! Deswegen erstmal abwarten und auf CB Test warten
 
nekro1 schrieb:
Aber mal ernsthaft ob ich nun in einem Spiel 250FPS oder 350FPS ist mir eigentlich wayne! Deswegen erstmal abwarten und auf CB Test warten
Wenn du deine Qualitätseinstellungen soweit runterschraubst, dass du auf solche Frameraten kommst, reicht dir auch eine Radeon HD 4670 locker zum flüssigen Spielen.
Da verstehe ich nicht ganz, wie man geil auf High-End-Karten sein kann. Sinnlos hohe Frameraten sind nicht cool, gute Bildqualität bei flüssigem Bildaufbau ist cool.
 
wann kommmmmmttttt die endlich^^ ich will die haben.
 
Swissjustme schrieb:
Sind die neu? Was genau bedeuten diese zwei Zeilen?
OpenCL und DirectX Compute Shader sind zwei hardwareunabhängige Schnittstellen für GPGPU. Genügend Material dazu solltest du im Netz finden. Diese zwei Schnittstellen werden in Zukunft sicherlich die bedeutendsten für GPGPU sein. Ähnlich wie das seit Jahren mit OpenGL und DirectX Graphics fürs 3D Rendering ist.

tXX schrieb:
Welche Änderungen gegenüber der "alten" Generation lassen denn überhaupt auf eine signifikant höhere Leistung schließen(so, dass sich die neue Generation lohnen würde)?
Es gibt jede Menge Änderungen. ZB wurde der Scheduler stark überarbeitet, die Shader aufgebohrt, ebenso ROPs und TMUs, die Taktrate angehoben, die Architektur für DirectX 11 angepasst, usw. Gehe mal von einem ähnlichen Leistungssprung wie von 3870 zu 4870 aus, also 50%+x. Und DirectX 11 selbst dürfte einiges an Performance bringen, siehe Tesselation.

GuestNr1 schrieb:
Statt 1160MHz noch mehr Strom im GDDR zu verbraten sollten sie den SI zumindest auf 384Bit erhöhe -.-
512Bit bei der High End Karte wären schön, zahl auch gerne 20€ mehr und habe einen erträglichen Takt und keine 2* 8 Pin Stromanschluss :D
Und die zusätzlichen Transistoren auf dem Die für ein 512 Bit SI brauchen keinen Strom oder was?
Speicherbandbreite wird überschätzt. Schon die 4870 hat genug davon. Viel wichtiger ist es, wie effizient die Architektur hier arbeitet. Und wenn man die Bandbreite nur moderat erhöht, lässt das auf Gutes hoffen. Ich vermute eher, dass man erst bei der RV9xx Generation auf ein breiteres SI setzt. GDDR5 dürfte bis dahin immer noch aktuell sein.
Zudem hat das natürlich auch einen wirtschaftlichen Effekt. Das vergessen die meisten Leute immer. Kleinerer Die, höhere Ausbeute, mehr Absatz. Man sollte ebenfalls bedenken, HD 5850 und 5870 werden wieder Performance Karten, also Mainstream für gehobene Ansprüche, und kein High-End. High-End wird vermutlich wieder die X2.

Kasmopaya schrieb:
HD 5000 v. GT300 v. Larrabee. Krasseren GPU Showdown hat es noch nie gegeben.
Zumindest auf Larrabee dürften wir wohl noch etwas länger warten. So wie man hört, ist das aktuelle Silizium nicht konkurrenzfähig. Wenn er erst 2H 2010 oder gar 2011 kommt, hat zumindest ATI wohl schon die nächste Generation am Start.
 
theorist schrieb:
Wenn du deine Qualitätseinstellungen soweit runterschraubst, dass du auf solche Frameraten kommst, reicht dir auch eine Radeon HD 4670 locker zum flüssigen Spielen.
Da verstehe ich nicht ganz, wie man geil auf High-End-Karten sein kann. Sinnlos hohe Frameraten sind nicht cool, gute Bildqualität bei flüssigem Bildaufbau ist cool.

Ja grundsätzlich hast du recht, jedoch bedenke das bei multiplayern spielen auf grund der besseren sichtbarkeit des gegners die details in den Keller geschraubt werden jedenfalls die die das etwas ernster spielen!

Früher hätte ich sowas gerne gehabt bei den guten BASE-64 FFA Maps von Quake 2.
64 Players in einer Map war schon krass
 
gruffi schrieb:
Speicherbandbreite wird überschätzt. Schon die 4870 hat genug davon.
Eine HD4770/HD4850 giert nach Bandbreite und legt nahezu linear mit höherem VRAM-Takt an Fps zu, eine HD4870 ist ausbalanciert, eine HD4890 ebenfalls. Die Daten bei der HD5870 klingen mir zu Bandbreiten-limitiert, zumindest für DX9/DX10, DX11 siehts mit der Bandbreite eh etwas was anders.
 
Das mit OpenGL können die mal ganz schnell wieder streichen...
 
.xXASUSXx. ja ist windstille von denen kommt dieses jahr nix mehr, zumindest nix weltbewergendes bei den grafikkarten, dx11 karten kommen irgendwann anfang nächstes jahr von nvidia. afaik gehört damit amd/ati das weihanchtsgeschäft.

Irgendwie erinnert mich die situation vor der einführung der dx10 generation. Nur mit umgekehrten darstellen, damals kam amd viel zu spät und die fanboys haben sich damit getröstet das die grafikkarte dann alles weg rocken soll und haben dann ewig noch mit dem kauf gewartet. Afaik wars dann nen ziemlicher flopp, wenn nvidia das wirklich jetzt auch passiert muss man ihnen wirklich die daumen drücken das die viel erfolg mit dem ion haben sonst haben die ein großes problem.
 
Die Grafikkarten beider Hersteller werden sicherlich sehr gut
ATI etwas billiger und weniger leistung als NV. Hoffe nur ATI
bekommt endlich den Stromverbrauch im griff.

@y33H@ ..."Bandbreiten-limitiert". Wieso limitiert die werden schon
wissen was die tun und werden nicht Leistung wegen der Bandbreite
verschenken. Was war den mit der HD 2000 Serie, viel SI die nicht
effektiv genutzt wird.
 
chorn schrieb:
Triplehead? Was macht man damit?

- Filme gucken: Displayränder nerven
- Bildbearbeitung: genauso
- Games: Kopf ständig drehen um alles zu erfassen?
- Office: genauso
- Programmieren: genauso

Was kann man nicht über virtuelle Desktops lösen?

Ernsthaft Komfortabel? Alles ist mit Multidisplay besser.

Film gucken ist natürlich blödsinn, aber wie wäre es mit Film Rechts, Eve Online in der Mitte, und IRC links?
- Bildbearbeitung? Links die Tools, in der Mitte das Hauptgrafikfenster, Rechts die Vorlage
- Games? MS Flight Simulator .. nur als Beispiel, sogar in Shooter oder MMOs kann man es praktisch nutzen (was bei zwei Munitoren nur bedingt oder gar nicht sinn macht) nichtweil man tatsächlich auf die Monitore direkt drauf schaut, sondern weil man sie im Blickwinkel sieht, und das Sichtfeld erweitert wird - nicht weil das Bild darauf gestreckt wird, nur um es größer darzustellen
- Office? In der Mitte den Brief in Pivot den ich schreibe, links die Exel Tabelle mit Zahlen die ich einbringe, und rechts Outlook.
- Programmieren? Links die Werkzeuge, Mitte der Code, Rechts die Datenbank.

Noch fragen? Es gibt dutzende sinnvolle Möglichkeiten für dual oder tripple head.
Ich habe daheim 22+19, nutze es mittlerweile aber nur noch selten.
Auf der Arbeit hab ich 19+19 und ich könnte nicht mehr ohne, denn das ständige explorer, mail, remote destkop, browser, dokumente, und co herumgeschiebe keinen sinn macht.

chorn schrieb:
Unterstellst du mir gerade, dass ich irgendwo behauptet hätte, dass es nicht sinnvoll sein kann? Vllt. solltest du dich bezüglich Unterstellungen selbst mal an die Ratschläge halten die du anderen zu erteilen versuchst (nur weil du Unterstellungen machst, machen das andere noch lange nicht).

Ich arbeite selbst mit Dualhead - und meistens bleibt der zweite Monitor aus. Bei allen Arbeiten die ich aufgelistet habe. Aus den Gründen die ich aufgelistet habe. Daher mein Interesse.

Ja, mehr oder minder hast du es behauptet, und tut es wieder. Wenn du selbst dafür keinen nutzen findest, dann können wir da ja nichts für.



Jay|(stAr) schrieb:
jetzt mal ganz ehrlich. Was hier teilweise von sich gegeben wird ist echt unfassbar! :evillol:
--- snapp ----
ihr seid echt alle ein paar schätzchen :freaky:

Du nimmst das ganze Thema aber selbst wichtig genug, um in deiner Signatur mit deinem fetten OC System zu protzen.
Einfach mal andie eigene Nase fassen.
 
@ blackiwid: Du kannst auch recht haben oder auch nicht.
NV kann im letzten Moment launchen und uns mal überraschen.
 
blackiwid schrieb:
.xXASUSXx. ja ist windstille von denen kommt dieses jahr nix mehr, zumindest nix weltbewergendes bei den grafikkarten, dx11 karten kommen irgendwann anfang nächstes jahr von nvidia. afaik gehört damit amd/ati das weihanchtsgeschäft.

Irgendwie erinnert mich die situation vor der einführung der dx10 generation. Nur mit umgekehrten darstellen, damals kam amd viel zu spät und die fanboys haben sich damit getröstet das die grafikkarte dann alles weg rocken soll und haben dann ewig noch mit dem kauf gewartet. Afaik wars dann nen ziemlicher flopp, wenn nvidia das wirklich jetzt auch passiert muss man ihnen wirklich die daumen drücken das die viel erfolg mit dem ion haben sonst haben die ein großes problem.
Damals hatte niemand damit gerechnet, das nVidia so einen gewaltigen Leistungsprung hinlegt mit der 8800GTX als erste 10er Karte, ich glaub das hatte ATI damals bewogen, ihre Karten nochmals zu überarbeiten bzw die Treiber, weiß ja keiner genau. Damals wurde auch nicht viel Aufsehen gemacht, kaum jemand hat damals geahnt, was nVidia da bringt.
nVidia hält sich immer sehr bedeckt, da darf man sich nicht täuschen lassen. Die kommen noch. :evillol:
So und nun werd ich grad mal den 190.62 Treiber, den ersten mit ComputerShader installieren, obwohl meine alte 8800GTS512 wohl kaum nutzen draus ziehen wird.
 
Weitere Spezifikationen für Radeon HD 5870:

rv870specs1-png.151950
 

Anhänge

  • rv870specs1.png
    rv870specs1.png
    40,2 KB · Aufrufe: 1.750
Also klingt gut wie ich finde....
Hoffentlich wurde PowerPlay deutlich verbessert.
Das mit 3 Monitoren find ich Klasse :)
 
Zumindest auf Larrabee dürften wir wohl noch etwas länger warten. So wie man hört, ist das aktuelle Silizium nicht konkurrenzfähig. Wenn er erst 2H 2010 oder gar 2011 kommt, hat zumindest ATI wohl schon die nächste Generation am Start.
Könnte schon sein, ich rechne auch mit Q2 2010, aber es wird wohl eher ein neuer Refresh am Start stehen. Die nächste neue Architektur gibts dann in 2-3 Jahren genauso wie bei den CPUs.

Irgendwie erinnert mich die situation vor der einführung der dx10 generation. Nur mit umgekehrten darstellen, damals kam amd viel zu spät und die fanboys haben sich damit getröstet das die grafikkarte dann alles weg rocken soll und haben dann ewig noch mit dem kauf gewartet. Afaik wars dann nen ziemlicher flopp, wenn nvidia das wirklich jetzt auch passiert muss man ihnen wirklich die daumen drücken das die viel erfolg mit dem ion haben sonst haben die ein großes problem.
NV hat zur Zeit mehrere Standbeine. Ion, Tegra, GPGPU, Lizenzen für Intel Chipsatz SLI etc...
Denen geht es seit Jahren viel besser als AMD, macht euch nicht immer so viele Sorgen um die Grünen, die Roten stehen immer noch am Abgrund...
Sieht man auch an teuren Features:
PhysX
3D Vision
bessere Multi-GPU Support

Solche Spielereien sind bei AMD schon allein wegen den finanziellen Mitteln nicht drin.

Edit:
Epic Fail bei der 5870 X2 nur 2x 1GB Vram. Jetzt müssen sich den Vram teilen sonst sind Mulit GPU Setups(2x GTX 285 2GB) wie die Asus Mars schneller...
 
Zuletzt bearbeitet:
Na super und morgen trudelt bei mir ne GTX 275 ins Haus... ob ich die besser gleich zurück schicke? :eek:

Ich würde es AMD wirklich gönnen, wenn Sie durch die bessere Technik mal endlich das Lizenzgeprolle von nVidia durchbrechen würden.

Da ich im Moment wohl mehr PhysX Titel spiele, hab ich mich zwar nach dem Schuss in den Ofen mit der 4850 X2 und der 4870 Vapor-X dann doch für eine nvidia entschieden aber naja... ich weiß ehrlich nicht, ob das jetzt und überhaupt so ne gute Idee war
 
Ccleaner##50fps schrieb:
2gvjvvp.jpg


wenn die specs für die 5870 stimmen sollten ,
bin ich mir zu 100% sicher , dass 256-er SI und 1100mhz GDDR-5 zu lahm sind um die immense Rechenleistung von 2,8 Tfpos verwalten zu können , zudem sind 1 GB dann auch gerade für hohe Auflösungen von 1920*1200 sehr knapp bemessen .

mal Abwarten :D


edit:



würde ich nicht behaupten , schlißlich heißt eine doppeltsohohe Shaderzahl nicht gleich doppelsohohe leistung ( theoretisch ja , praktisch nein ) . Es gibt auch noch TMUs und ROPs ;) Speicheranbindung und SPeicher darf man auch nicht vergessen .

Selbst wenn die Karte auch nur Ansatzweise das erreicht , was die vermutlichen specs versprechen , wäre dass schon ein riesen Sprung für ATI .

Wäre ja wohl affengeil, wenn die X2 tatsächlich schon im Oktober käme...... Dann wär Weihnachten für mich gerettet :D
 
Zurück
Oben