Test ATi Radeon HD 5870 im Test: Die erste Grafikkarte mit DirectX 11

Evader schrieb:
nV wird sowohl compute shader als auch OpenCL unterstützen, von daher erübrigt sich die Diskussion eigentlich.

Ist nur ein Lippenbekenntnis so lange sie mit PhysX immer noch ihr exklusives System vorrantreiben. Marketingtechnisch funktionierts aber auch ganz gut. Zu dem Angebot an ATI ist nicht wirklich Handfestes bekannt, von daher ....
Wobei es es wohl logisch ist, dass NV compute shader unterstützen wird, denn sonst gibts kein DX11 (eigentlich D3D11) für die Jungs. ;)

wadenbeisser schrieb:
Mach dich bitte nicht lächerlich und informier dich erstmal bevor du dich versuchst rauszuwinden.

Halt mal du Füße still und dein verbales Agressionspotential im Zaum. Wir haben da eine Schwelle überschritten wo ich nicht mehr mitdiskutieren kann und ich kann das sogar zugeben. Wow, oder? Das kennen hier einige gar nicht. Wenn du mitgelesen hättest, sträube ich mich vor allem gegen diese dogmatischen, gebotsgleichen Aussagen wie "GT300 ist eine vollkommene Neuentwicklung", "RV870 nur ein Refresh", blablabla. Ich habe schon genügend dieser plakativen Provokationsaussagen gelesen die man nicht halten kann.
Ich habs eben mit Logik versucht zu entkräften und nicht mit Fachwissen (das ab irgendeinem Punkt nicht ausreichend in die Tiefe geht). Bei manchen ist offenbar beides nicht vorhanden. Und ich meine jetzt nicht dich, wobei mir deine Aussage noch immer brutal gegen den Strich geht. Das ist einfach keine Art!

Raucherdackel schrieb:
Kann Havoc eigentlich auch von GPUs berechnet werden?

Ja, wurde bei der Vorstellung der 5XXX Serie von ATI unter OpenCL auf der GPU vorgestellt. Leider finde ich die Grafik gerade nicht mehr :-(

Hier (Presseaussendung):
http://ir.ati.com/phoenix.zhtml?c=105421&p=irol-newsArticle&ID=868986&highlight=
hier (CB):
https://www.computerbase.de/news/grafikkarten/intel-und-amd-ati-mit-havok-gegen-nvidia.22213/
und hier (Präsentationsfolie):

AMD_ATI_Bullet_OpenCL_675.jpg
 
Zuletzt bearbeitet:
Ist nur ein Lippenbekenntnis so lange sie mit PhysX immer noch ihr exklusives System vorrantreiben.

Marketingtechnisch werden sie natürlich so lange auf Physx rumreiten wie es geht, langfristig wird aber nichts an OpenCL und Compute Shader vorbeiführen.

OpenCL Support gibt es bereits in CUDA, ebenso wird Compute Shader von nV unterstützt, entsprechende Physikengines (ich glaube es war Bullet) laufen ebenfalls mit CUDA.

KLICK
 
Zuletzt bearbeitet:
Ui, jetzt wirds wieder verwirrend.

Wie ich das verstanden habe, sind OpenCL, Cuda, ATi Stream und Direct Compute Konkurrenten auf einer Ebene. Du kannst also nicht OpenCL mit Cuda ermöglichen und in dem von dir verlinkten Artikel wird auch immer von der Cuda Architektur gesprochen (also nur von den nV GPUs und ihren GPU Processing Fähigkeiten)?
Darauf setzen dann wieder Havok, PhysX, Bullet, etc. die Physikbibliotheken sind und auf einer der oberen Plattformen laufen können. Würde beispielsweise PhysiX über OpenCL realisiert werden, würde es auch auf ATIs laufen. Ist es aber nicht. Vorher war auch gedacht (siehe CB Link) Havok über ATI Stream in die GPUs zu bringen. Dies wurde jetzt aber verworfen und auf das Open Source Projekt OpenCL umgelegt, das diese "Programme" dann auch gleich auf Mac und Linux bringen kann.

Falls es wen interessiert wurde ATI Stream wohl weitgehend ausgeklingt und für Cinema Rendering Optimiert. http://www.amd.com/us-en/Corporate/AboutAMD/0,,51_52_15438_15106,00.html?redir=uve001

Das entwickelt sich in eine ganz andere Richtung, soll aber in 1-2 Jahren auch wieder Früchte für die Spieleentwicklung bringen. Anscheinend wird schon an in Echtzeit gerenderten Interaktiven Filmen gearbeitet. Informationen zu diesem Thema sind aber bisher nur sehr verstreut und mit eher dubiosen Quellen zu finden.
 
Zuletzt bearbeitet:
wadenbeisser schrieb:
Es gibt so gut wie keinen.....die 2900pro basierte auf dem gleiche Chip und offenbar auch auf dem gleichen PCB, allerdings wurde die 2900pro geringer getaktet => höchstwarscheinlich der Abverkauf des R600 für den RV670.

Oh Gott! Ja, das weiß ich! Das schrieb ich sogar! Die Pro war meines Erachtens nach sogar nicht nur als Abverkauf vor dem RV670 gedacht (da der aufgrund der Verbesserungen eh Absatz gefunden hätte und die XT auch noch teuer geblieben ist), sondern um produzierte HD2900 allgemein loszuwerden. Alle Welt hat sich damals an der GF8 vergriffen, siehe Steam-Hardware-Survey.
 
Hui, Danke euch vieren für die schnelle Beantwortung. Warum hat CB das nicht im Artikel erwähnt?

Um beim Thema zu bleiben: ich habe irgendwo gelesen, dass die hd3k und hd4k-Serien ja eine erschreckend geringe 2D-Leistung haben, hat sich diesbezüglich an der 5er-Serie was geändert?
 
Wie ich das verstanden habe, sind OpenCL, Cuda und Direct Compute Konkurrenten auf einer Ebene.

CUDA ist in erster Linie ne Marketingbezeichung von nV.

Die zwei Sätze am Anfang des Artikels sagen im Prinzip schon alles.

OpenCL™ (Open Computing Language) is a new heterogeneous computing environment that runs on the CUDA architecture. It will allow developers to harness the massive parallel computing power of NVIDIA GPUs to create compelling computing applications.


Kurz und knapp:
OpenCL rennt auf unserer (achtung Ironie) furchtbar tollen CUDA Architektur.

Darauf setzen dann wieder Havok, PhysX, Bullet, etc. die Physikbibliotheken sind und auf einer der oberen Plattformen laufen können.

Korrekt.
Wäre Physx in OpenCL realisiert, könnte also auch ATi PhysX nutzen.
Bei den über OpenCL realisierten Physikengines ist es tatsächlich so, das nV und ATi darauf zugreifen können.
 
göschle schrieb:
Also ich warte gerne auf die neue Karte von Nvidia. Und die Games die mich interessieren, kann ich bis dahin auch mit meiner GTX285 meistens flüssig spielen, das ist überhaupt kein Problem.
Interessant wird's halt dann, wenn der GT300 aufschlagen wird und aus den beeindruckten ATI User plötzlich potentielle Nvidia Käufer werden - vorausgesetzt der GT300 rendert schneller, von dem ich aber ausgehe.

Kann auch leicht passieren das aus den beeidruckten NV Usern potentielle ATI käufer werden wenn da was drann sein sollte wenn der GT300 aufschlagen wird. :p
http://www.theinquirer.net/inquirer/news/1137331/a-look-nvidia-gt300-architecture
 
Motkachler schrieb:
Kann auch leicht passieren das aus den beeidruckten NV Usern potentielle ATI käufer werden wenn da was drann sein sollte wenn der GT300 aufschlagen wird. :p[/url]

Also wenn man wählen könnte, würde Laut dem Thread wahrscheinlich NV die bessere Graka rausbringen. Jedenfalls gehen sooo viele davon aus.
 
wenn da was drann sein sollte wenn der GT300 aufschlagen wird.

Ist halt ne Glaubensfrage.

Liest man ein wenig im Web herum, ist der Artikel genauso falsch wie er alt ist.
Genauso würde es sich bei den Yields verhalten, die sind lt. Ailuros von 3DCenter zwar immer noch mies, aber weit über den einstelligen Zahlen die sich der gute Charlie notiert hat.

Meine Meinung dazu:
Die Wahrheit liegt meistens in der Mitte, ich denke wir werden eine vor Weihnachten gelaunchte und nach Weihnachten besser verfügbare Kartenserie bekommen die etwas schneller als ATis aktuelles Top-Produkt sein wird, aber eben auch entsprechend deutlich teurer/wärmer/stromhungriger etc.
 
Raucherdackel schrieb:
Um beim Thema zu bleiben: ich habe irgendwo gelesen, dass die hd3k und hd4k-Serien ja eine erschreckend geringe 2D-Leistung haben, hat sich diesbezüglich an der 5er-Serie was geändert?

Wie kann eine 2D Leistung "erschreckend gering" sein? Windows wird bei mir immer flüssig dargestellt öÖ
 
@Motkachler: Wow das ist ja mal interessant, also frühestens November und mit Pech erst im 2Q 2010 :freak:
Ich würde sagen nvidia hat tatsächlich Probleme zurück an die Marktspitze zu kommen.
 
Tja das wird ein harter Schlag für nVidia, mindestens 3 Monate ohne Gegengewicht in der Hand dazustehen.
Allerdings befürchte ich, dass die GT300er Karten doch wieder etwas mehr Power haben werden als die HD5000er.... Es ist ja immer derselbe Kampf.
ATi hat meist etwas weniger Leistung und dafür faire Preise, während nVidia die "Highest-End"-Hardware hat, aber zu einem unmäßigen P/L-Verhältnis.
Das ist genauso wie bei AMD vs Intel ^^

Naja es heißt wohl abwarten.
 
GT300 will be quarters late, and without a miracle, miss back to school, the Windows 7 launch, and Christmas. It won't come close to R870 in graphics performance, and it will cost much more to make. This is not an architecture that will dig Nvidia out of its hole, but instead will dig it deeper. It made a Laughabee.

Wenn das stimmt, dann wird es wirklich hart für nvidia.
 
@ NoD.sunrise: Sorry, mein Fehler, bezieht sich nur auf den RS780 in Verbindung mit Win XP. Link
 
Stimmen tut auf jedenfall das Nvidia gepennt hat mit DX10 und DX11 baut darauf auf also wars locker für ATI DX 11 mit ihrer Hardware zu unterstützen. Weil die alten karten schon lange DX10.1 beherschten was aber nicht viel genutzt werden konnte wegen der Fehlenden Games. Bei DX 11 schauts jetzt ganz anders aus da sind für 2010 jetzt schon gut 10 Games angekündigt und das werden schnell mehr.
Weil DX 11 auch auf Vista und W7 laufen wird. Und da wird sich Nvidia sicher hart tun mithalten zu können.
Denn anscheinend gibts allein da massig probleme. Vom 40nm ganz zu schweigen da hat ATI auch viel mehr Erfahrung sammeln können durch die 4770 40nm die schon im handel war.
 
Zuletzt bearbeitet:
Jaha, 40nm, GDDR5, DirectX11 und eine komplette neue Architektur, womit wie du schon sagtest, hat nvidia mit den 3 erst gennanten Punkten keinerlei Erfahrung und wird sich dementsprechend schwer tun, allerdings ist der Bericht auch schon älter und man weiß halt nicht genau was sich bisher so geändert hat.
 
Die neusten Berichte gehn aber alle auch in diese richtung drann ist da sicher was.
Ist ja leicht nachzuvollziehen bei den genannten punkten.
 
Kann man eigentlich davon ausgehen, dass NVIDIA jetzt die eigenen Preise nach unten korrigiert?
Ist ja im Moment nicht mehr stimmig das Preisgefüge.

mfg
Noxolos
 
Zurück
Oben