Test AMD Radeon VII: Benchmarks mit aktuellen Spielen und (Async) Compute

Kacha schrieb:
@DrFreaK666 ...Sie wird TEILWEISE als Gaming Karte beworben. Sie wird aber auch als Creator Karte beworben. Wobei ich nicht verstehe warum sie sie nicht als Compute/Machine Learning Karte bewerben. Von dem her kannst du gerne bruellen, aber man kann das Gebruelle getrost ignorieren...

Dass ich das "Brüllen" von einem zitiert habe, hast du sicherlich übersehen...
Was ich damit sagen wollte war dass MIR die zusätzlichen Funktionen egal sind. Wenn andere was damit anfangen können, schön für sie. MIR bringt es nichts. Ob dir jetzt meine (!!) Meinung gefällt ist mir übrigens auch egal ;)
 
Zuletzt bearbeitet:
DeadEternity schrieb:
@Sennox nein, die Stückzahl war bei Release SEHR gering. Ähnlich wie bei Vega56/64 damals.

@Kacha : Ja, ich wollte es nur anmerken. Zu deinem restlichen Text, ja es ist leider immer so hier in den Kommentaren, da meint man, man kann mit so ner Vega noch nicht mal ein Spiel starten, dabei ist die Vega56 momentan sogar die Empfehlung der Redaktion im Bereich 280-350€. Des Gelaber von einigen hier muss man manchmal einfach ausblenden.

Genau das ist auch mein Problem. Und die Versteifung auf pur Gaming ist auch so eine Sache.

Zero_Point schrieb:
Ich treffe eine Aussage für die überwältigende Mehrheit der Nutzer, die sich nicht für Nischen interessieren. Wenn du diese Nischen beachtet haben willst, musst du wohl oder übel in ein "Content Creator"-Nischenforum. Genauso wie wenn sich Spieler auf nur ein spezielles Spiel fokussieren. Die sind hier dann auch falsch.

Du versuchst die Deutungshoheit zu erlangen indem du fuer die "ueberweltigende Mehrheit der Nutzer" sprichst. Hast du die ueberweltiegende Mehrheit gefragt oder ist das einfach Pi mal Daumen? Wie schon ein anderer Nutzer sagte, das hier ist nicht PCGamesBase. Du kannst dich gerne auf Gaming versteifen, aber sieh dann bitte ein, dass du eben nicht fuer die ueberweltigende Mehrheit sprichst, sondern fuer dich und das generelle Aussagen schlichtweg keine Aussagekraft haben, wenn du nur Gaming mit einbeziehst.

Neronomicon schrieb:
Sennox: Gegen das Verkaufen habe ich auch nie was gesagt. Klar bei der Stückzahl das die weggehen (nicht negativ gemeint). Und ich habe auch nichts gegen AMD, hatte selber welche.
Nur gegen das "grüne Gaming Fraktion" habe ich was. Sinnloses Bashing, was gar nicht sein muss.

Kacha: nein kein wunder Punkt da ich alle beide schon hatte/ habe. Nur Bashing und für mich sinnlose Ausschweifung, die nichts bringen, außer viel Textmüll, kann man doch auch unterlassen.
Zum Gaming. Das ist interessiert nun mal die Masse (also hier). Deswegen wird zu 90% nur vom Gaming gesprochen. Das weißt du bestimmt auch.
Und die Anwendungsbenches gibs ja auch. Es ist für jeden was dabei.

Was stört, sind eben die schon angesprochenen Mängel, die so nicht sein müssten.

@Affenzahn
unter mir
Nein das siehst du falsch. Es ist halt so, nicht jeder interessiert sich für bestimmte Themen.

Tut mir leid, ich wurde etwas polemisch. Einige Nutzer treiben einen auf die Palme. Ich habe auch schon beide besessen, so ist das nicht. Aber im Forum kommt immer mehr die Meinung raus, dass Nvidia per Definition besser im Gaming und allgemein besser ist.

90% nur Gaming? Dafuer kommen dann doch etwas zu wenige Tests. Der Themenbereich von CB ist doch schon um einiges groesser. Sieht man ja schon an den News und Themenbereichen der News. Und wenn wir es ganz eng sehen wollen, warum gibt es hier etwas zu Smartphones?

Die Anwendungstests sind halt ein schlechter Scherz. Gerade in Anbetracht wen die Karte adressiert. Dass die Karte Maengel hat, klar, darf man gerne ansprechen. Dass CB ein recht starker Outlier international ist, und das nicht zum ersten mal, hilft halt dabei nicht. Mittlerweile wirken viele der Tests recht oberflaechlich. Das ist ziemlich schade.

Oneplusfan schrieb:
Ich vermute, du hast viele Kommentare einfach Missverstanden. Niemand hier hat die Compute oder Anwendungsleistung einer R7 in Abrede gestellt, mit den Profitreibern ist die Karte sogar ein wahres Schnäppchen.

Ich bin mir nicht sicher ob ich alle Kommentare missverstanden habe. Es sieht sehr danach aus, dass einige die Karte als schlecht abgestempelt haben, weil sie nur in Gaming nicht mindestens ueber der 2080 liegt. Compute wird hier in der Tat in Abrede gestellt.

Oneplusfan schrieb:
Nur argumentierst du an den meisten Leuten vorbei, denn es ging diesen Leuten (und auch mir) darum, was man dem 0815 Gamer empfehlen soll, der in dieser Preisregion eine Grafikkarte kaufen will. Was bringt mir ein Auto mit Schiebedach, wenn ich gar kein Schiebedach haben will?

Mal abgesehen davon, dass der 0815 Gamer eher nicht in der Preisregion kauft, soll CB dann einfach sagen, "Vega VII in GAMING..." So wie es jetzt ist befeuert es doch gerade Aussagen die von Gaming auf alles schliessen. Und wenn du dem 0815 Gamer was empfehlen willst, RX 580/570/560 und Vega 56, GTX 1060/1050 und RTX 2060. Dann bist du in der Preisregion 0815 Gamer. Oder gleich eine APU.


Oneplusfan schrieb:
Achso, ja dann sind die Preise von der 2080 doch vollkommen in Ordnung und sämtliche Kritik zur 2080 am Anfang war dummes Gewäsch? Denn die 1080 hatte auch ne UVP von 789$.....

Das ist ein ziemlicher Strohmann. Man darf gerne die Preise kritisieren, bei beiden, aber hier wird das Preisleistungsverhaeltnis verglichen von einer 4 Monate alten Karte gegen UVP. Oh Wunder, eine 4 Monate alte Karte kostet keine UVP mehr. Die Argumentation ist schwach.

Oneplusfan schrieb:
Du hast scheinbar überhaupt keine Ahnung, was Bandbreite bedeutet? Ist das für dich ein Zahlenwert, der je höher = automatisch bessere Performance? Das man bei Nvidia nicht annähernd so hohe Bandbreiten braucht, weil man wesentlich effizientere verlustfreie Kompressionen hat ist dir entgangen? Welche Karte lief ständig ins Bandbreitenlimit? Eine Vega oder eine Pascal?

So weit ich mich an den CB Test zur Kompression erinnere, war die Wunderkompression der Nvidias gar nicht so wunderhaft. Wenn wir 20% annehmen haette die 2080ti anstatt 616 GB/s 740 GB/s. Damit sind wir immer noch 260 GB/s von der Vega VII entfernt. Eine verlustfreie Kompression hat seine Grenzen. Ausser natuerlich man setzt eine verlustbehaftete Kompression ein, mit all den Nachteilen. Die 2080ti muesste 60% mit der Kompression rausholen um die Bandbreite der Vega VII zu erreichen. Also ja, derzeit hat die Vega VII eine hoehere effektive Bandbreite als die 2080ti, ausser du kannst mir zeigen, dass die Kompression wirklich 60% ausmacht. Dazu kommen natuerlich noch 5 GB mehr RAM. Und ja, man kriegt den RAM voll.

Oneplusfan schrieb:
Und der Teil mit "zu fast nichts anderem als zu gebrauchen" stimmt seit Turing ja nun wirklich nicht mehr. Schau dir einfach Benchmarks an.....
Wenn man böse wäre, würde man dir die eigene Aussage unter die Nase reiben und Anwendungen cherrypicken, wo die 2080 trotzdem schneller als die R7 ist. Sollen diese Leute, die z.B. Cuda brauchen jetzt auch die R7 nehmen? Ist ja eine Profikarte, also muss sie in allen Profianwendungen auch schneller sein. Soviel zu eingeengter Horizont:D

Die Vega VII ist hybrid, ansonsten kaeme sie sofort mit Pro Treiber. Aehnlich wie die Titan positioniert ist. Ja, in einigen Anwendungen ist die 2080 recht gut, aber die DP wurde enorm beschnitten und FP16 scheint auch nicht immer zu klappen. Ja, sie hat Tensor Cores, aber die reissen auch nicht immer was. Turing, Pascal, etc, sind mit Absicht beschnitten, das macht AMD oefter mal genauso, um die Produkte zu differenzieren. Man will ja ein Argument fuer Profikarten haben. Ansonsten kann man da nicht mal ein paar Tausender verlangen.

Und Cuda... Das hat Nvidia geschickt gemacht. Sie haben ordentlich Geld reingesteckt in die Verbreitung von Cuda und jetzt sind alle darauf angewiesen und muessen Nvidia kaufen. Das war ein guter Zug fuer Nvidia, fuer die Kunden ist es ein Vendor Lock-In. Sie haetten das gane in OpenCL stecken koennen, aber dann koennten sie keinen Vendor Lock-In herbeifuehren.

Oneplusfan schrieb:
Wer eine Karte kaufen will, die er nicht nur für Gaming verwendet, sondern auch 4k Videos rendern will, der kriegt von niemandem die 2080 empfohlen. Hier herrscht kein Bias, sondern es wird halt empfohlen, was am sinnvollsten ist.

Bei den Empfehlungen in den Threads dafuer, ja, bei Tests, naja....


Oneplusfan schrieb:
Schau dir doch bitte mal die Umsatzzahlen (v.a. bei Nvidia) an. Wo da Gaming die 2. oder 3. Geige spielt, kann ich nicht erkennen. Oder legst du andere Maßstäbe zu Grunde?

Schau dir das Wachstum der Sparten an und die offizielle Positionierung von Nvidia. Datenzentren, Automotive, Machine Learning, etc. Das ist der derzeitige Fokus. Volta kam auch nur fuer Datenzentren. Gamer bekommen sozusagen das was uebrig bleibt. Die Tensor Cores auf den RTX sind auch so eine Sache. Im Endeffekt, man hatte es, also kann man ja ein bisschen auf die Konsumerkarten packen und es PR technisch verkaufen. Vor allem da mit der Treibernutzung die Verwendung von non-Pro Karten in Datenzentren untersagt ist, ausser fuer Forschung.

Oneplusfan schrieb:
Ich habe nicht gesagt, dass "Nvidia voll toll ist" und auch war "weil Gaming" nicht die Begründung dieser nicht von mir getätigten Aussage. Ich sagte lediglich, dass mir RT und DLSS zumindest in einem Game stand heute was bringt, die FP64 Leistung dagegen in keinem.
RPM, wie lange gibt es dieses Feature schon, in wie vielen Games wird es verwendet und wie viele sind damit angekündigt? Versteh mich nicht falsch, ich finde es immer Schade wenn Features nicht genutzt werden, aber dann muss man den Spielestudios auch Hilfe anbieten, dieses Feature zu integrieren.

RT und DLSS sind Features die extrem gehyped sind. Man brauchte etwas, was man als neu verkauft. Es gibt Games damit, ja, aber mit teils fragwuerdigen Resultaten. Klar ist aber auch, Nvidia hat die Ressourcen das durchzudruecken, koste es was es wolle. Raytracing an sich ist eine sehr interessante Technologie, so wie es Nvidia aber derzeit umsetzt ist es eher sub-optimal.

Es ist schoen wenn neue Technologien kommen, es ist aber nicht schoen, wenn ein Hersteller damit versucht einen quasi Vendor Lock-In zu erzeugen (wie bei Cuda). Das hilft dem Kunden absolut nicht.

Oneplusfan schrieb:
Und eines hast du auch vergessen, die R7 kostet eben noch nicht das Gleiche und hat dazu noch den lauten Lüfter. Sollten irgendwann Custom Modelle zu geringeren Preisen kommen, können wir weiterreden.

Zu dem laut sage ich ja gar nichts. Und ja, wir werden sehen wie die Preise sich entwickeln. Allerdings, warum sollte das Argument der 2000 Serie, in ein paar Wochen/Monaten wird der Preis schon fallen, nicht auch fuer die Vega gelten? Ich finde es nur fragwuerdig Strassenpreise mit Launchpreisen zu vergleichen.

Oneplusfan schrieb:
Bitte, dann mach es besser oder schau dir andere Seiten an, wenn dir die Ergebnisse hier nicht passen. Jedem kann mal ein Fehler passieren und hier wird damit sehr transparent umgegangen, was man von so manch anderer Seite nicht behaupten kann.
Man hat ja sogar noch einen Nachtest geliefert, der AMD besser liegt. Ich weiß wirklich nicht, was man noch mehr wollen kann.
Schau dir doch mal Igors Test an, der geht zwar mehr in die Tiefe, hat dafür aber andere Aspekte wie das UV der Karte nicht behandelt. Der Test dort liest sich tendenziell auch nicht anders als hier (Schaut euch doch das Fön-Video an). Da wurde AMD sogar vorgeworfen, sich durch den hoch drehenden Lüfter einen unfairen Vorteil zu erkaufen (mmn. zu Recht) und man sollte dann die Nvidia Karten ebenfalls bei gleicher Lautstärke testen.
Überall hat AMD sein Fett weg bekommen, bei THW durch das Lautstärke Video und hier halt durch die Überschrift.

Keine Angst, ich schaue mir andere Tests an um mir eine Meinung zu machen. Und ich haben in denen einen anderen Tenor als bei CB vernommen. Das mag aber subjektiv sein. CB ist nicht mehr meine erste Anlaufstelle, das haben sie verspielt. Es koennen zwar Fehler passieren, aber eben nicht zu oft. Es hat einen Grund warum ich Heise mittlerweile meide.

Zur Lautstaerke und Vorteil daraus, warum macht es Nvidia dann nicht? Sie haben durchaus die Moeglichkeit. Aber sie wollen wohl ein anderes Image. Leise, schnell, effizient, das hat sich zumindest in den Koepfen so langsam manifestiert.

Oneplusfan schrieb:
Ein Fokus außerhalb von Gaming bringt halt weniger Klicks, es gibt deshalb keinen wirklichen Grund für CB das zu ändern. Dazu müssten mehr Prosumer auf der Seite unterwegs sein.

Das ist aber ein Teufelskreis. Es werden nicht mehr Prosumer kommen wenn keine Prosumer Tests da sind.

Oneplusfan schrieb:
Ist die bei Turing nicht auch stark angestiegen? Die 2080ti hat doch angeblich über 100TFLOPS FP16(Kenn mich da nicht aus, deshalb kann mir vlt. jemand erklären, ob die Tensor Cores auch ganz normal genutzt werden können wenn es um FP16 geht)

https://www.computerbase.de/2018-09/nvidia-geforce-rtx-architektur/2/

"Der TU102 auf der GeForce RTX 2080 Ti kann über die normalen FP32-Einheiten FP16-Befehle mit einer theoretischen Rechenleistung von 26,9 TFLOPS ausführen. Die Rechenleistung von FP16 über die Tensor Cores liegt dagegen bei 107,6 TFLOPS – also um den Faktor 4 höher. Bei INT8 wird die Rechenleistung nochmals verdoppelt und bei INT4 vervierfacht. "

Ja, trotzdem kann sie es nicht immer nutzen, warum auch immer. Wobei es in dem Fall wirklich sein kann, dass die Speicherbandbreite nicht ausreicht. Ich befuerchte, dass die Kompression von den Karten hauptsaechlich auf Video ausgelegt ist. Das kommt in Games gut, ausserhalb davon kann es zum Bottleneck werden. Was wieder ein Punkt fuer Kunden ist sich die Pro-Karten zu kaufen.


Affenzahn schrieb:
Ich bin im Thread zum Test. Wo genau ist denn dann hier der non-gaming Bereich?
Was verschafft dir hier denn die Deutungshoheit? Ganz schön frech und exkludierend von dir.

Ich versteh ja dass man irgendwie Unterschiede herauskristallisieren muss, aber diese Unterschiede sind nun mal deutlich vielschichtiger als es hier meist dargestellt wird. Das darf man ruhig ansprechen und darüber diskutieren.
Absichtlich dumm: Das Forum hier heißt Computerbase, nicht PCGamesHardware. Computer kann mehr als nur games.
Manche tun hier so als wäre Gaming das, was die Welt am laufen hält, die Menschheit weiter bringt und die Brötchen bezahlt. Tatsächlich ist es aber nur eine kleine, unbedeutende Nische und für die meisten nur ein Zeitvertreib.

Und was genau macht das für einen Unterschied ob ich etwas high-, mid- oder low-end einordne? Ändert sich etwas an den nackten Zahlen?
Das sind einfach nur Marketingbegriffe um dir etwas zu suggerieren und einen Kaufreiz zu schaffen.

Euch geht es nicht um die Technik, euch geht es darum Balkenlängen zu vergleichen ohne das dahinter zu sehen um dann gegen alle zu schießen welche die Balken anders interpretieren.

Das schlimme ist, dass ihr auf die gleiche Art vermutlich auch am demokratischen Prozess teilnehmt.

Das ist auch mein Kritikpunkt, aber er wird von vielen nicht akzeptiert. Und das Computerbase nicht nur Gaming (auf dem PC) abdeckt sollte mit Smartphone Tests oder sonstigen News/Tests klar sein. Aber vielleicht will Computerbase auch in die Richtung nur noch Gaming Tests zu machen. Ob das gut gehen wird ist die andere Frage.

Edit:

DrFreaK666 schrieb:
Dass ich das "Brüllen" von einem zitiert habe, hast du sicherlich übersehen...
Was ich damit sagen wollte war dass MIR die zusätzlichen Funktionen egal sind. Wenn andere was damit anfangen können, schön für sie. MIR bringt es nichts. Ob dir jetzt meine (!!) Meinung gefällt ist mir übrigens auch egal ;)

So wie du das jetzt ausdrueckst ist das ja vollkommen in Ordnung. Du sagst, fuer mich, subjektiv, und so weiter. Da sagt niemand was. Es gibt aber einige die sagen, fuer alle, objektiv, etc. Das passt wiederum nicht, da diese Personen dann eben nicht objektiv alles betrachten und auch nicht fuer alle sprechen koennen.
 
  • Gefällt mir
Reaktionen: Smartbomb und Sennox
Naja, DLSS wird in diesem Jahr mehrfach kommen, RT sicher ansatzweise in einigen Spielen. Wer behauptet, das die Effekte nicht schön aussehen, hat bestimmt eine AMD-Karte. :)
 
Naja, Raytracing in BFV sieht jetzt nicht so toll aus das sich der Performanceverlust bei einem Shooter lohnt (in meinen Augen).
Und wenn man den Blindtest macht bin ich mir sicher das du auch oft genug nicht weißt was Screenspace und was Raytracing-Reflexion ist. Natürlich solange Screenspace-Reflexionen möglich sind.
In Metro sieht's vielleicht anders aus, vielleicht nicht.
Edit: In Metro siehts in der Tat anders aus, Global Illumination macht wesentlich mehr her als die Reflexionen in BFV. Auch wenn es an manchen Stellen "falsch" (für ein Spiel) wirkt, man war es halt bisher anders gewohnt.

Und DLSS hat in FF ja jetzt nicht so überzeugt. Könnte an den Entwicklern liegen, oder an nem falsch gefütterten Netzwerk, oder vielleicht gibt DLSS in Spielen zur Zeit noch nicht mehr her.
Ein Spiel hat ja doch ein paar mehr mögliche Szenen wo Pixel anders interpretiert werden müssen als eine Tech-Demo.

Jeder der was anderes sagt hat eine Nvidia-Karte ;) (btw. Hab eine AMD-Karte)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Sennox
Aber, aber, aber bald kommt der Wundertreiber, der RTX superschnell und wunderschön in allen Spielen möglich macht. :)
Ergänzung ()

Ach nee, Wundertreiber gibt's nur für AMD.
Ergänzung ()

Jetzt ernsthaft; die Radeon VII mit einem guten Customkühler würde ich mir vielleicht auch kaufen, wenn ich nicht so gerne in 4K spielen würde.
 
@Tronado @Joshinator DLSS und RT sind derzeit beide relativ unausgegoren. Fuer DLSS muss man wirklich fuer jedes Spiel und jede Aufloesung ein Netzwerk trainieren. Wahrscheinlich sogar mit Hyperparameter Search. Das kostet Zeit, Ressourcen und Geld. Wenn das mal so weit ist, dass ein Netz alles skalieren kann, dann wird es was. Ansonsten hast du ein paar Titel mit und viele ohne.

Raytracing hingegen leidet einfach an der Performance. Entweder wurde es bisher schlecht umgesetzt, oder die Tensor Cores reichen nicht aus. Ersteres kann sich verbessern, zweiteres bedeutet eine neue Generation an Grafikkarten. Mich wuerde es nicht mal wundern, wenn das der Plan ist. Alle anfixen mit RT und dann die naechste Generation die wieder ordentlich kostet und dann damit geworben wird, dass es keine Performanceeinbrueche bei Raytracing gibt.
 
Bard schrieb:
@DrFreaK666 Das mit dem Zitieren ist wohl iwie schief gegangen, das hab ich doch garnet geschrieben. 😮

Ups. Wie ist denn das passiert??
Habe ich korrigiert, danke
Ergänzung ()

Kacha schrieb:
....So wie du das jetzt ausdrueckst ist das ja vollkommen in Ordnung. Du sagst, fuer mich, subjektiv, und so weiter. Da sagt niemand was. Es gibt aber einige die sagen, fuer alle, objektiv, etc. Das passt wiederum nicht, da diese Personen dann eben nicht objektiv alles betrachten und auch nicht fuer alle sprechen koennen.

Wenn man älter wird, dann wird man weiser. Das lernen die anderen hoffentlich auch noch 😁

Ich versuche so unparteiisch wie möglich zu sein. Eigentlich ist mir AMD sympathischer, aber NV hatte im wahrsten Sinne des Wortes einfach die besseren (High-End)-Karten.
Jetzt leider immer noch...
 
  • Gefällt mir
Reaktionen: Colindo
Ja, das ist wohl so. Schade, dass Intel wahrscheinlich auch einige Generationen benötigt, um den Anschluss zu finden, mit der ersten Serie gleich einen Volltreffer landen, das wird wohl nicht klappen. Vor allen Dingen, weil die einige AMD Spezies abgeworben haben. :D
 
@Kacha#504


Ich dachte ja einmal hätte gereicht. Aber ich habe mich getäuscht. Du diskutierst wie im PCGH Forum, wo die Fanboys ungebremst, wegen Klicks (der Seite) und "nur ich habe recht" ....aufeinander prallen. Nur theoretisches bla bla.
Das möchte ich ehrlich gesagt hier nicht sehen.
Könnten Sie ihre Fanboy Diskussionen woanders führen. Nämlich im toten PCGH Forum, wo ihnen keiner zuhört?
Danke.
Ich glaube so langsam kommen die 10 "ich kann 20 Beiträge zitieren und sinnlos mit Flame belegen" aus dem PCGH Forum Fanboys hierher.
 
Kacha schrieb:
Mister Scheuklappe, nicht nur CB Tests lesen, sondern andere Tests sowie Meta-Analysen. Und wenn es dir trotzdem nicht passt, dann kauf dir Nvidia und gut ist. Dann aber bitte keine Beschwerden ueber den Preis.

Scheuklappe? Warum? Ich benenne doch klar die Vorteile als Prosumer Lösung, dennoch interessiert hier hauptsächlich die Gaming Leistung, jedenfalls die Leser dieses Tests zu einem >95% hohen Anteil.
Für Gamer ist die OpenCL Computingleistung irrelevant.
CB Test lesen oder Meta-Analysen von 3D Center macht keinen Unterschied.
Oder willst du etwa sagen, dass 9% oder 7% Mehrleistung der 2080 in 4K einen relevanten Unterschied machen?
In den Auflösungen darunter ist der Abstand trotzdem höher und das interessiert auch einen deutlich höheren Anteil, denn 4K ist eine Nische und daraus ergibt sich auch die Bewertung der Karte.

Und ich beschwere mich nicht über den Preis, sondern stelle fest, dass beide Marktteilnehmer sehr hohe Preise für ihre Produkte nehmen.

Du hast einfach ignoriert was ich inhaltlich geschrieben habe und ab dem Punkt lohnt keine Diskussion.
 
Zuletzt bearbeitet von einem Moderator:
https://www.reddit.com/r/Amd/comments/aq4t33/linux_opengl_driver_radeon_vii_230_faster_rx_480/
v6krwg3pfbg21.png


das kann dabei rauskommen , wenn man zur Abwechslung mal auf AMD optimiert , bzw die Asyn Shader verdeckte Objekte aussortieren lässt , dann ist selbst ne RX480 schon auf 1080 TI Niveau ...
Hat natürlich nur einen Effekt wenn es verdeckte Objekte gibt .
 
  • Gefällt mir
Reaktionen: CMDCake, Smartbomb und Matthias Berger
@DrFreaK666 Ja, hat Nvidia gerade, zumindest wenn es rein ums Gaming geht. Sobald es um mehr geht wird es schon interessanter, aber das scheint hier nicht erwuenscht.

@Neronomicon Das kann ich gerne zurueckgeben. Du scheinst auch nicht an einer Diskussion interessiert zu sein, auch wenn du das natuerlich nur mir vorwirfst. Zum Format, wenn relativ schnell Beitraege kommen traegt es fuer Leser zum besseren Verstaendnis bei, wenn man weiss auf was geantwortet wird. Es ist nicht jeder dauerthaft online.

@KlaraElfer Dann habe ich das ueberlesen, tut mir leid. Die Scheuklappen meinten auch eher das Beharren auf CB Tests. Es sind nicht nur die Zahlen die unterschiedlich sind, sondern auch der Tenor. 3D Center und Meta-analysen sind dann doch etwas objektiver und neutraler.

Zum Thema OpenCL, das sollte fuer Gamer durchaus interessant sein. Die Tensor Cores sind nichts anderes als eine pure Compute Implementierung, die Nvidia jetzt fuer Gaming nutzt, sozusagen Recycling. In dem Fall zaehlt es dann? AMD kann Raytracing sehr wohl durch OpenCL implementieren. Mich wuerde es sogar nicht mal wundern wenn sie es machen, sie haben die Rohleistung.

Beim Preis stimme ich komplett mit dir ueberein. Der ist bei weitem zu hoch, wobei Nvidia da den Vogel mit 2080ti und Titan abschiesst. Ich befuerchte aber, dass das nicht besser wird. Kunden sind dennoch bereit es zu zahlen, also wird weiter gemacht.

Fuer das ueberlesen habe ich mich entschuldigt. Du ignorierst aber auch einfach einen Grossteil von dem was ich schreibe und tust es mit der Aussage "ist halt Gaming hier" ab. Kann man machen, wird aber halt kritisiert.

@MK one Wie auch in dem Post geschrieben, kommt auf die Szene an. Aber ist interessant, dass Culling jetzt im Linux Treiber ist, aber anscheinend nicht im Windows Treiber. Aber das selbst die 480 so hoch kommt... Einer der ersten Kommentare beschreibt die Situation auch ganz gut. Nvidia macht viel automagic im Treiber und bietet viel Hilfe an, AMD macht nicht so viel im Treiber und hofft, dass Entwickler ihre Hardware direkt zum Culling nutzen, was sie eben nicht machen. Ist aber klar, man geht den Weg des geringsten Widerstandes.

Was ich hier wirklich interessant finde ist der Fokus auf Linux. Ist es dort einfacher zu implementieren? Hat Windows mehr Huerden? Oder verlagert sich der Fokus? In den letzten Jahren hat AMD enorm viel Ressourcen in den freien Linux Treiber gesteckt. Dass das ganze auch dem Machine Learning und Datenzentren Part zu kommt, ok, aber das hier ist ja direkt fuer Games.
 
1.) Danke MK für den Link. Wusste gar nicht dass es hier beim Mesa-Treiber Bestrebungen gibt dass Culling derart zu verbessern.
Wenn das funktioniert und was bringt könnte ich mir sogar vorstellen, dass das auch wieder in den WindowsTreiber einwandert.
2.) Wenn ich die Beschreibung lese zeigt das ein bisschen den "Worst case" Fall nämlich dass die Software 0 Culling (selber) macht. In Game Engines wie z.B. der Frostbite Engine wird aber bereits culling betrieben.
=> Der tatsächliche Einfluss auf Games sollte also deutlich KLEINER sein als diese +150%.

Aber selbst wenn dabei nur 10%-20% im Schnitt rumkommen wäre das Hammerviel !
 
Kacha schrieb:
Alle anfixen mit RT und dann die naechste Generation die wieder ordentlich kostet und dann damit geworben wird, dass es keine Performanceeinbrueche bei Raytracing gibt.
Es gibt schlimmeres als Leute auf Echtzeit Raytracing anzufixen und wenn die das schon zur nächsten Generation schaffen volles RTX (nicht die "xy gigarays": Voll. Alles. Immer.) ohne Performanceeinbußen zu betreiben dürfen sie gerne verlangen was sie wollen.
Kacha schrieb:
Was ich hier wirklich interessant finde ist der Fokus auf Linux. Ist es dort einfacher zu implementieren? Hat Windows mehr Huerden? Oder verlagert sich der Fokus? In den letzten Jahren hat AMD enorm viel Ressourcen in den freien Linux Treiber gesteckt. Dass das ganze auch dem Machine Learning und Datenzentren Part zu kommt, ok, aber das hier ist ja direkt fuer Games.
Wenn Microsoft mit Windows Updates so weiter macht, könnte Linux tatsächlich die goldene Zukunft erwarten.
Linux ist offen, läuft auf dem Großteil der Server und hat weniger kiddie-flame-hater.
Die Linux Community ist eher bereit Dinge auszuprobieren, auch auf die Gefahr hin dass es das halbe System zerschießt. Es ist eher ein Miteinander, denn ein nebeneinander.
Und wenn der Treiber Grütze ist, kommt kein shitstorm, weil der 0815 Linux User es eh gewohnt ist dass alles nur halb funktionert :D (nur spaß).
Außerdem muss man eh dies und das für Linux machen, sonst wird das nix mit Datacenter Martanteilen.

Alles Vermutung!
 
https://lists.freedesktop.org/archives/mesa-dev/2019-February/215085.html
This patch series uses async compute to do primitive culling before
the vertex shader. It significantly improves performance for applications
that use a lot of geometry that is invisible because primitives don't
intersect sample points or there are a lot of back faces, etc.

It passes 99.9999% of all tests (GL CTS, dEQP, piglit) and is 100% stable.
It supports all chips all the way from Sea Islands to Radeon VII.

As you can see in the results marked (ENABLED) in the picture below,
it destroys our competition (The GeForce results are from a Phoronix
article from 2017, the latest ones I could find):

I decided to enable this optimization on all Pro graphics cards.
The reason is that I haven't had time to benchmark games.
This decision may be changed based on community feedback, etc.

People using the Pro graphics cards can disable this by setting
AMD_DEBUG=nopd, and people using consumer graphics cards can enable
this by setting AMD_DEBUG=pd. So you always have a choice.

Eventually we might also enable this on consumer graphics cards for those
games that benefit. It might decrease performance if there is not enough
invisible geometry.

ich hoffe das jemand das mal auch in Games ausprobiert , ein interessanter Ansatz ist es auf jedem Fall , ist aber kein Allheilmittel , was der letzte Satz ja auch besagt .
 
In den von Michael L. getesten OpenGL Games brachte das Culling genau 0.
EDIT Link fehlte: https://www.phoronix.com/scan.php?page=news_item&px=RadeonSI-Prim-Culling-Tests

Offenbar ist das Culling in den Games doch einigermaßen "gut" schon jetzt, so daß die Geometriedurchsatz-Leistung nicht der Limitierende Faktor ist. Warum allerdings diese ParaView Software hier dermaßen durchs Raster fällt ... ?

Leider ist der Ansatz ja auch nur für OpenGL fähige Games möglich...was die Auswahl ja noch weiter einschränkt. Aber vielleicht macht Marek Olsak ja auch noch Patchvarianten für die anderen APIs ?

EDIT: Sehr treffend:
https://www.phoronix.com/forums/for...mixed-benchmark-results?p=1080266#post1080266
"Of course, it's still a nice improvement for somebody who has to work with bad software."
 
Zuletzt bearbeitet:
Affenzahn schrieb:
Es gibt schlimmeres als Leute auf Echtzeit Raytracing anzufixen und wenn die das schon zur nächsten Generation schaffen volles RTX (nicht die "xy gigarays": Voll. Alles. Immer.) ohne Performanceeinbußen zu betreiben dürfen sie gerne verlangen was sie wollen.

Das wird halt nur zum Problem wenn sie damit eine Monopolstellung bekommen. Das waere negativ fuer den Kunden.

Affenzahn schrieb:
Wenn Microsoft mit Windows Updates so weiter macht, könnte Linux tatsächlich die goldene Zukunft erwarten.
Linux ist offen, läuft auf dem Großteil der Server und hat weniger kiddie-flame-hater.
Die Linux Community ist eher bereit Dinge auszuprobieren, auch auf die Gefahr hin dass es das halbe System zerschießt. Es ist eher ein Miteinander, denn ein nebeneinander.
Und wenn der Treiber Grütze ist, kommt kein shitstorm, weil der 0815 Linux User es eh gewohnt ist dass alles nur halb funktionert :D (nur spaß).
Außerdem muss man eh dies und das für Linux machen, sonst wird das nix mit Datacenter Martanteilen.

Alles Vermutung!

Naja, die Linux Community hat ihre eigenen Problem, der Hang zum leichten Elitismus ist eines davon. Mir ist klar, dass die was fuer Linux machen fuer Datacenter, aber das was gerade implementiert wurde scheint rein fuer Spiele zu sein. Deswegen wundert es mich, dass das nicht auch auf Windows kommt.

Zu den Windows Updates, ganz ehrlich, da wird ein riesen Hype darum gemacht. Es kann immer was schiefgehen beim updaten, auch auf Linux, oft genug gesehen. Bei Windows faellt es halt nur mehr auf und es gibt gleich 1000 Schlagzeilen. Der Grossteil der Nutzer merkt nichts davon. Und ich befuerworte den Update Zwang, da der 0815 User es dann nicht mehr schaffen kann Sicherheitsluecken offen zu lassen. Es gibt oft genug Leute, die irgendwo mal gelesen haben, dass sie mal lieber die Updates ausstellen, weil ist irgendwie gefaehrlich. Dann stellen sie sie aber nie wieder an und machen auch keine manuellen Updates. Man muss einfach sagen, der Grossteil der Nutzer ist nicht IT-affin und hat auch keine Ahnung. Ist beim Auto das selber, die meisten haben keine Ahnung wie es funktioniert, ausser dass man das Gaspedal drueckt um schnell zu werden, die Bremse um langsamer zu werden, und man irgendwann schalten muss. "Updates" und Maintenance gibt es dann beim TUEV und in der Werkstatt.
 
Fehler passieren, klar.
Aber die Eigenen Dateien so ummappen dass der geneigte User denkt sie wären gelöscht ist schon ein ordentlicher Griff ins Klo.
Von Apple hab ich so schlimme Geschichten deutlich seltener gehört.

Wenn mir der die Werkstatt versehentlich den Motor ausbaut und in den Kofferraum legt bin ich zurecht sauer.

Mit Linux ist es so, dass sie eben, da alles Quelloffen ist, schneller, besser und gezielter anpassen können als bei Windows, wo der komplette Unterbau Geschäftsgeheimnis ist.
Zugegeben, ich hab nicht die geringste Ahnung wie man einen Treiber programmiert, könnte mir aber vorstellen dass es einfacher ist, wenn das OS komplett offen ist.
 
Zurück
Oben