Test AMD Radeon VII im Test: Zu laut, zu langsam und zu teuer, aber mit 16 GB HBM2

Luxmanl525 schrieb:
Wirklich? Wo? Wo außer in einem Spiel, welches gerade nicht für diese Technik geeignet ist, kann man diesem Zeitalter frönen?

Das Zeitalter eingeläutet.
s. https://www.duden.de/rechtschreibung/einlaeuten
Ergänzung ()

Taxxor schrieb:
AMD wartet nur einfach ab, bis sich das Feature auch für die Kunden lohnt und versucht nicht

Das ist doch Blödsinn. Wie sollen denn ohne reale Hardware brauchbare Implementierungen des Features entwickelt werden?
 
kisser schrieb:
Das Zeitalter eingeläutet.
Und wo war das Nvidias verdienst? Echtzeitraytracing kommt so oder so in DX12, Nvidia hat nur dafür gesorgt, dass es für dieses Zeitalter wieder mal eine weitere proprietäre Schnittstelle gibt.

kisser schrieb:
Das ist doch Blödsinn. Wie sollen denn ohne reale Hardware brauchbare Implementierungen des Features entwickelt werden?
Hat bei Ndivia mit der Titan V doch auch funktioniert. Den Kunden das als Mainstreamkarten zu verkaufen war jedenfalls der falsche Weg.
Wenn es Nvidia um die Technik und die Kunden ginge, dann wäre die Raytracing Hardware so lange bei den Profikarten geblieben, bis man sie auch vernünftig in den Mainstream hätte bringen können.

Und auch AMD wird schon an Implementierungen arbeiten, die dann aber wieder offene Standards verwenden werden.
 
Krautmaster schrieb:
Amd hat keinen DXR fähigen Treiber stand heute.

Der wird so schnell auch nicht kommen, falls er denn überhaupt kommt.
Die "andere Seite" ist definitv dafür bereit, nur Lisa Su brabbelt solchen Unsinn:
So soll zukünftige Hardware Raytracing unterstützen, gleichzeitig aber auch mit Softwarefirmen zusammengearbeitet werden, „denn die Hardware nutze nichts, wenn die andere Seite nicht bereit dafür ist“ erklärte AMD-CEO Lisa Su.
 
KuroSamurai117 schrieb:
Die R7 ist genauso wenig eine reine 4k Karte wie die GTX 1080 Ti.
Man ist zu oft bei 30-45fps unterwegs bei hohen Einstellungen um da wirklich von durchgängig 4k-rauglich zu sprechen. Selbst wenn man nicht alles auf Ultra stellt.

Ja, aber das begreifen ja viele Menschen nicht. Gibt ja genügend, sieht man ja jedesmal wen hier auf CB ein neuer Gamer-Monitor vorgestellt wird. "Was, TN und 1080p, was soll man mit diesem dreck. 4k, HDR und IPS muss schon sein damit ich das kaufe".
 
kisser schrieb:
Die "andere Seite" ist definitv dafür bereit, nur Lisa Su brabbelt solchen Unsinn:
Warum sehen wir dann immer noch nur ein Spiel, welches die Hardware der RTX Karten nutzt? Shadow of the Tomb Raider sollte es auch kurz nach Release implementiert bekommen. Softwareseitig ist man eben noch lange nicht bereit.
 
-=Azrael=- schrieb:
Da geb ich dir Recht, nur solange Raytracing nicht auch auf low-mid range GPUs läuft wird das in der Fläche keine Rolle spielen und bis es eine Rolle spielt sind die RTX Karten altes Silizium.

Das geht eben nicht von heute auf morgen. Auch in der Vergangenheit hat es bei der Einführung neuer Shader-Versionen immer gedauert, bis diese sich durchsetzten. Raytracing ist derzeit kein "must-have"-Feature, aber zu behaupten das wäre "nicht bewegendes" ist falsch. Mehr Realismus in der Darstellung gerenderter Szenen gibt es eben nicht durch höhere Auflösungen, sondern nur durch Änderung des Render-Verfahrens. Und nach einem Viertel Jahrhundert der Rasterizer-Ära ist es dafür auch Zeit.
 
  • Gefällt mir
Reaktionen: xexex und lynx007
"Die andere Seite ist dafür bereit", wir haben jetzt ein Spiel mit RT. Ein weiterer Shooter wird in den nächsten Tagen folgen.

1549793209236.png

Die andere Seite ist ja genauso bereit für DLSS, "DLSS Momentum Continues". Welches Momentum?

DLSS und RT sind zur Zeit noch genauso Versprechen wie Vorteile durch 16GB RAM.
Solange es eben nur 480€+ Karten gibt bei denen man RT wirklich nutzen kann ist es eben nur ein Nischen Feature was man nicht eben implementiert weil der Markt für den Preisbereich recht klein ist.
Es ist nicht "it just works".

Die Karten sind schon 4 Monate(!) lang draußen, man sollte denken das es möglich sein sollte da ein paar mehr Games draußen zu haben die die neue Technologie unterstützen.
 
Zuletzt bearbeitet:
Taxxor schrieb:
Warum sehen wir dann immer noch nur ein Spiel, welches die Hardware der RTX Karten nutzt? Shadow of the Tomb Raider sollte es auch kurz nach Release implementiert bekommen. Softwareseitig ist man eben noch lange nicht bereit.
Ja aber das ist ja wieder das Hene und Ei problem.... Warum sollten die Spieleindrustrie unmegen an Geld in einen Bereich stecken den bestenfalls 1% ihrer Käufer nutzen kann? Und warum sollte ein Grafikhersteller wertvolle Chipfläche in eine Technologie verschwenden die (noch) keiner Nutzt?

Ich finde es daher gar nicht so schlecht das nvidia das versucht durch zu boxen. Schöner hätte ich es gefunden wen sie sich um ein Standart mit AMD bemüht hätten. Aber sie haben halt den Entwicklungsvorteil. Ihre Chips sind schon sehr stark, sie haben halt einen sehr hohen Marktanteil....

AMD sagt natürlich das noch nicht die Zeit reif dafür sei, weil sie nvidia erst etablieren muss, bzw müsste... :D
 
Die "andere Seite" stellt sich gerade darauf ein, NVidia zieht sicher schon länger die Fäden im Hintergrund. Und gegen einige nette RT-Effekte, die die Hardware nicht all zu sehr belasten, habe ich nichts einzuwenden. Wirklich zukunftsträchtig ist DLSS, wenn das vernünftig implementiert wird, gibt es ordenlichen Leistungszuwachs.

Achso, zu 4K: nicht zu unterschätzen ist die Detailverkleinerung in 4K, AA braucht man kaum mehr, der Unterschied zwischen FXAA und 4x MSAA fällt in WQHD sehr viel mehr auf.
Und auf meinem einfachen 27" LG 60Hz UHD-Monitor sehe ich kein Tearing, das sieht nur ein Bekannter, der sich gerade einen 780 € WQHD-GSync-Monitor geholt hat, alle anderen nicht. ;)
 
Der Preis ist der Hebel. Geht das Ding Richtung 550€ oder drunter, ist sie eine sehr gute Alternative. Custom Designs werten weiter auf und UV lässt etwas Potential offen (was auf der einen Seite gut ist, auf der anderen Seite wieder „Arbeit“ auf den User abwälzt).
 
lynx007 schrieb:
Ja aber das ist ja wieder das Hene und Ei problem.... Warum sollten die Spieleindrustrie unmegen an Geld in einen Bereich stecken den bestenfalls 1% ihrer Käufer nutzen kann?Und warum sollte ein Grafikhersteller wertvolle Chipfläche in eine Technologie verschwenden die (noch) keiner Nutzt?
Der Spieleindustrie wird es bei der Erstellung von Spielen doch einfacher gemacht, wenn man Raytracing nutzen kann. Das ist also in deren Interesse. Dafür kann und sollte man ja die Profikarten nehmen und sobald man genug für die Kunden umsetzbare Ergebnisse hat, kann man sich darum kümmern, die Raytracing Hardware in den Mainstream zu bringen, was bis dahin auch viel günstiger geworden sein wird.
 
Dass Raytracing auf ner Titan v läuft ohne dezidierte cores habt ihr alle verdrängt, oder wie?
Die ganze RTX core geschichte, ist ein einziges Märchen: https://www.notebookcheck.com/NVIDI...rraschende-Ray-Tracing-Leistung.390856.0.html
Wieso soll da AMD nicht mitziehen können. Kann doch kein Mensch wissen, ob die hohe Rechenleistung der Radeon nciht endlich mal eine sinnvolle anwendung bei raytracing findet.
Unglaublich wie naiv manche das Marketing gedöhns der Firmen fressen.
 
  • Gefällt mir
Reaktionen: Acedia23, Wadenbeisser und proko85
Sie wollen es fressen und dies ist das Problem daran.

Zum Kühler.
Der ist wirklich eine Katastrophe! Eigentlich müssten 3 Lüfter und die große Kühlfläche mit den Heatpipes ordentlich die Wärme abtragen können. Nur leider ist die Konstruktion des Kühlers und die Anordnung der Kühlfinnen so unglaublich schlecht wie es kaum noch geht.
Der Boden ist fast komplett zu, so dass kaum Luft durchströmen kann! Sie stößt quasi von Oben von den Lüftern gegen eine Wand und wird dann nur seitlich durch die kleinen Öffnungen herausgepresst.
So entsteht ein Wärmestau, der jede noch so große Kühlfläche zunichte macht!

Wer hat das Ding nur konstruiert? Und Tests wurden wohl auch keine gemacht?

Unglaublich... Nach all den vielen Jahren der Grafikkartenkühlerkonstruktion, wird noch so ein Ding gebaut....
Offensichtlich hat man einfach nur alle Bestandteile eines guten Kühlers wie Vapor Chamber, dicke Kupferheatpipes, Kühlfinnen und 3 Lüfter zusammengeworfen aber ohne dabei zu wissen, wie ein Kühler überhaupt funktioniert.

Es reicht nicht einfach nur Luft hinein zu pumpen. Sie muss auch genauso schnell wieder raus kommen. :rolleyes:
 
Zuletzt bearbeitet:
Less nochmal meinen Text. Warum sollten sie Geld dafür ausgeben? Noch gibt es kaum Kunden die es nutzen können. Du wirst als Raytracing nur bei Grafikhuren von Engineentwicklern sehen....

Soll jetzt bitte nicht als Kritik verstanden werden. Ich finde das gut das nVidia da Kapital reinpumpt. Aber das sieht nicht jeder so was man auch am Aktienkurs von nVidia sehen konnte. Raytracing nutzt ausserhalb der Filmindurstie noch keiner. Als Spiele entwickler muss ich ja auch etwas bieten was dem Kunden nutzt. Aber solange nur ein Bruchteil der Kunden über eine Grafikkarte besitzt die RT nutzen kann, es das auch ein Feature welches abseit der AAA Studios auf wenig interesse Stoßen wird. Selbst wen es einfach zu integrieren ist, braucht man mindesten einen Menschen der daran arbeitet. Und dieser kann in dieser Zeit an nichts anderes arbeiten.

AMD wiederum hat nicht die kapazitäten da einfach Chipflache für ein Feature zu verschwenden welches bestenfalls im intersse von Enthusiasten ist. Denn selbst ohne RT haben ihre Chips zu kämpfen noch mit nVidia mithalten zu können. Und auch der kommende Navi ist ja bekanntliczh ohne RT. Das bedeutet das wir frühstens in vielleicht 3 oder 4 Jahren soetwas von AMD sehen werden.
 
Taxxor schrieb:
Warum sehen wir dann immer noch nur ein Spiel, welches die Hardware der RTX Karten nutzt? Shadow of the Tomb Raider sollte es auch kurz nach Release implementiert bekommen. Softwareseitig ist man eben noch lange nicht bereit.

gut das wundert mich bei der ganzen DXR Sache auch nicht. Da lernst man noch aktuell noch viel dazu und auch die ganzen Frameworks und Entwicklertools wollen erstmal stehen. Das ist ja kein Feature wie Hairworks / TressFX das relativ zeitig und easy implementiert ist.

Dinge wie RT wirklich breit-flächig anzubieten dürfte etwa Vulkan / DX12 gleich kommen, das ist ein zäher Prozess über viele Jahre hinweg und erst heute sieht man den ein der anderen Vorzeigetitel der auch was draus macht.

Es muss eine eigentlich klar sein dass es noch einige Hardware Generationen braucht bis die Sache wirklich am Markt angekommen ist. Nicht mal nur aus Performance Sicht, man lernt wie gesagt vermutlich jeden Tag dazu wie man die Sache intelligent und Ressourcen schonend einsetzten kann und wie man es am besten mit üblichem Rasterizing kombiniert. Gut möglich dass Nvidia die Erfahrung jetzt nutzt um dann die nächste Hardware genau darauf maßzuschneidern.

Dennoch denke ich dass man auch mit der aktuellen RTX Serie in den nächsten Monaten schon das ein oder andere Grafikfeuerwerk erleben können darf, dann wenn man bei DLSS ggf mal etwas dazu gelernt hat und die ersten Studios auch mal den DXR Pfad erfolgreich eingebaut haben. DLSS dürfte dabei wesentlich früher breit eingesetzt werden als DXR da mit viel weniger Aufwand beim Studio implementiert.
 
RB6istGut schrieb:
Dass Raytracing auf ner Titan v läuft ohne dezidierte cores habt ihr alle verdrängt, oder wie?
Die ganze RTX core geschichte, ist ein einziges Märchen.
Mit wieviel FPS läuft es den? Und wieviel kostet eine Titan V? 3500-6000€? So ein Quatsch. RTX Cores haben schon ihren Sinn... aber bis das Software da ist dürfte es halt leider noch dauern.
 
Es hat doch generell kaum wer eine Ahnung wie RayTracing letztendlich auf den RTX Karten funktioniert.
Erst hieß es doch das die RT-Cores die Rays berechnen und die Tensor-Cores das Bild dann entrauschen.
Geht aber offensichtlich (mehr oder weniger gut) auch ohne RT-Cores, dann wohl über die SMs? Gibt ja auch immer wieder Stimmen die sagen dass das denoising auch über die RT-Cores geht.
 
lynx007 schrieb:
Less nochmal meinen Text. Warum sollten sie Geld dafür ausgeben? Noch gibt es kaum Kunden die es nutzen können. Du wirst als Raytracing nur bei Grafikhuren von Engineentwicklern sehen....
Les noch mal meine Antwort, weil sie es dann in Zukunft leichter und vor allem günstiger haben, Effekte zu implementieren. Natürlich muss es übergangsweise trotzdem noch weiterhin traditionell gemacht werden. Für die Entwickler wäre es also der Optimalfall, wenn jeder Spieler eine RT fähige Karte besitzt, denn dann kann man sich die ganze andere Arbeit sparen.

Und bis diese Entwicklungen durch sind, haben wir auch im Mainstream RT fähige Karten im Bereich von 150-200€
lynx007 schrieb:
Mit wieviel FPS läuft es den? So ein Quatsch. RTX Cores haben schon ihren Sinn... aber bis das Software da ist dürfte es halt leider noch dauern.
Wie viel FPS kannst du doch im Link sehen, 56 gegen 81 auf der anspruchsvollsten RT Map
 
Zuletzt bearbeitet:
ich denke die Ganze Sache läuft gedeckelt über Cuda. Man musste RTX und DLSS auch ohne die passende Hardware entwickeln, einen reinen Software Pfad gibt es also fast immer.

Im dümmsten Fall stellt Nvidia fest dass die Hardware so wie sie ist nicht funktioniert oder unzureichend funktioniert weil man damals noch nicht wusste was man braucht. Oder aber man tastet sich aktuell noch langsam Richtung Hardware vor. Da is alles drin.
 
lynx007 schrieb:
Mit wieviel FPS läuft es den? Und wieviel kostet eine Titan V? 3500-6000€? So ein Quatsch. RTX Cores haben schon ihren Sinn... aber bis das Software da ist dürfte es halt leider noch dauern.
Hättest dus gelesen, wüsstest du dass es annähernd so schnell wie auf ner Titan RTX... :rolleyes::rolleyes:
Aber mal laut quatsch schreien als sich zu informieren
 
Zurück
Oben