D
dylan1982
Gast
Danke für den Test.
Schön zu sehen, es war... [Meister Yoda]
Schön zu sehen, es war... [Meister Yoda]
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
HAse_ONE schrieb:Ja was denn jetzt? In anderen Threads schwärmst du von neuster Technik wie DLSS und Raytracing. Erzählst wie krass das doch ist, obwohl man meistens die Unterschiede mit der Lupe suchen muss. Dort schreibst du, wenn man nicht so euphorisch ist wie du, dass das halt die Zukunft ist und man sich nicht an alter Technik festklammern soll.
Zeigt mal bitte auf wo ich die "angebliche Zukunft propagiere". Indem ich Pascal Karten empfehle?Chismon schrieb:Sonst bist Du doch auch nicht so kurzsichtig und propagierst die angebliche Zukunft (bzgl. RTX bspw., da Du ja nicht an ein PhysX-aehnliches versickern im Sande glaubst), entpuppst Dich mit Deinem Festhalten an DX 11 aber als Ewiggestriger .
Es interessiert nur was am Ende ankommt. Bei Hitman 2 ist es bei der blaugrünen Kombi unter DX11 mehr als bei der rotroten unter DX12. Über rotrot und DX11 reden wir in eurem Interesse besser nicht, sonst wird es vernichtend. Wie das der Fall ist und ob irgendwas an der "Kotzgrenze" arbeitet, interessiert nicht.Wadenbeisser schrieb:Mit einem Quad oder gar Dualcore mit der gleichen Taktung womöglich auch nicht aber so ist das nunmal mit einer ineffizienten API. Sie ist nicht in der Lage die verfügbaren Ressorcen sinnvoll zu nutzen, weshalb der genutzte Teil der CPU an die Kotzgrenze getaktet werden muss um die Unzulänglichkeiten halbwegs zu kaschieren.
Nvidia hat hierfür zudem auf die normale Treiber Struktur gepfiffen um den Teil schonmal vorzukauen an dem DX11 aufgrund seiner ineffizienten Hardware Nutzung sonst hoffnungslos ersticken würde und somit dafür gesorgt dass das tote Pferd noch weiter geritten wird wärend die Konkurrenz sich um einen Nachfolger ohne diese Probleme gekümmert und daraufbei der Produkt Entwicklung auch gesetzt hat.
Und natürlich trabt man hier wieder mit dem angeblich höheren Overhead der Raden Treiber an ohne dass es auch nur einen ernsthaften Beleg dafür gegeben hätte dass deren Treiber eine höhere CPU Last erzeugen würde.
Meiner Erfahrung nach ist eher genau das Gegenteil der Fall, die geforce Karten erreichen bei DX11 ihre höheren Frameraten indem das Workaround per Treiber mehr CPU Ressourcen nutzbar macht und damit auch die CPU Last höher ausfällt. Was hier bejubelt wird ist die Stagnation und das versauern auf einem technisch unzulänglichen Produkt weil die Konkurrenz damit aufgrund der Ineffizienz der hoffnungslos veralteten API schlechter läuft.
HAse_ONE schrieb:Ja was denn jetzt? In anderen Threads schwärmst du von neuster Technik wie DLSS und Raytracing. Erzählst wie krass das doch ist, obwohl man meistens die Unterschiede mit der Lupe suchen muss.
Wurde ja schon gesagt, aber zur Sicherheit erwähne ich es nochmal, dass hier @Zero_Point mit @ZeroZerp verwechselt wurdeChismon schrieb:Sonst bist Du doch auch nicht so kurzsichtig und propagierst die angebliche Zukunft (bzgl. RTX bspw.,
wozu jetzt noch ? DX11 ist tot ... = keine DXR Schnittstelle , kein Direct ML ( Machine learning ) , kein DLSSZero_Point schrieb:AMD den DX11 Treiber bloß nicht optimieren soll, das hat immer noch keiner erklärt.
Mein Fehler, dann habe ich Dich wohl mit ZeroZerp verwechselt, Asche auf mein Haupt und nichts fuer ungut .Zero_Point schrieb:Zeigt mal bitte auf wo ich die "angebliche Zukunft propagiere". Indem ich Pascal Karten empfehle?
Und deshalb gibt es immer noch so viele Spiele mit DX11?MK one schrieb:wozu jetzt noch ? DX11 ist tot ... = keine DXR Schnittstelle , kein Direct ML ( Machine learning ) , kein DLSS
Dank der Touring Karten muß NV auf DX12 umschwenken und wollen die Developer die Features der Touring Karten nutzen , müssen sie auf DX12 hin programmieren , ganz davon abgesehen das die aktuellen Game Engines alle DX12 sind
Bei Hitman 2 merkt man davon allerdings nichts. Da ist eine Kombi mit DX11 am schnellsten. Demnach kann DX11 nicht so schlecht sein, wie es einige darstellen. Es ist sicher richtig, dass LL mehr Potential hat, aber was bringt es, wenn es nicht genutzt wird bzw. werden kann? Bei einigen wenigen Titeln wie Division 2 macht es Sinn, bei vielen anderen wie Hitman 2 profitiert AMD nur aufgrund der schlechten DX11 Treiber, ohne dabei im Falle dieses Spiels Nvidia mit DX11 abhängen zu können.Wadenbeisser schrieb:@Zero_Point
Sag ich ja, mich interessiert es wahnsinnig was am Ende von der Leistung der teuer erkauften Hardware ankommt, genau deshalb gehört DX11 schon seit Jahren auf das Abstellgleis weil es eben nicht in der Lage ist die heutige Hardware effektiv zu nutzen. Wozu also Entwicklungsressourcen in die Umgehung von deren Schwachstellen verschwenden wenn diese beim Nachfolger bereits behoben wurden?
Dann ist jedes mal die 2070 mit 9900k deutlich schneller unter DX11, als die Vega 64 mit egal welchem Prozessor unter DX12.ork1957 schrieb:Letzter Prozessorenbenchmark, 99,9th percentile, bzw alle Prozitests wenn man nur die V64 beachtet
Zero_Point schrieb:Und deshalb gibt es immer noch so viele Spiele mit DX11?
Zero_Point schrieb:Und deshalb gibt es immer noch so viele Spiele mit DX11?
Bei Hitman 2 merkt man davon allerdings nichts. Da ist eine Kombi mit DX11 am schnellsten. Demnach kann DX11 nicht so schlecht sein, wie es einige darstellen. Es ist sicher richtig, dass LL mehr Potential hat, aber was bringt es, wenn es nicht genutzt wird bzw. werden kann? Bei einigen wenigen Titeln wie Division 2 macht es Sinn, bei vielen anderen wie Hitman 2 profitiert AMD nur aufgrund der schlechten DX11 Treiber, ohne dabei im Falle dieses Spiels Nvidia mit DX11 abhängen zu können.
Wird seit 2015 jedes Jahr prophezeit. Auch dieses Jahr wette ich wieder dagegen.MK one schrieb:= NV , und nur NV ... , bisher , der einzige Grund .... , mit Touring beseitigt ....
Gib Touring noch ein Jahr damit auch die letzten Games aus der Pipeline verschwunden sind und du wirst keine neuen mehr auf DX11 entwickelten Games sehen ...
Es reicht immerhin AMD mit DX12 in Schach zu halten. Zur Zukunft siehe oben.Zulgohlan schrieb:Herrgott bist du ein schwieriges Männchen
NV ist kacke unter DX12 und DX12 ist die Zukunft, ob es dir passt oder nicht, punkt aus fertig
Wadenbeisser schrieb:DX11 schon seit Jahren auf das Abstellgleis weil es eben nicht in der Lage ist die heutige Hardware effektiv zu nutzen
Ist jac auch schwierig mit den ganze Zeros hier.Colindo schrieb:Wurde ja schon gesagt, aber zur Sicherheit erwähne ich es nochmal, dass hier @Zero_Point mit @ZeroZerp verwechselt wurde
ZeroZerp schrieb:von Grund auf die Rendering Pipeline auf GCN ausrichtet
Zwischen DX9 und 11 hatten wir auch noch das zu Anfangs unsäglich viel Resourcenfressende Win Vista mit der DX10 Totgeburt.Celinna schrieb:Wielange hats gedauert bis sich DX11 gegenüber DX9 durchgesetzt hat?
Gebt den Entwicklern Zeit das geht nicht instant...
Da gab es zwar die VII noch nicht aber Wolfenstein und DooM unter Vulkan waren da schon sehr krass beim Ergebniss auf AMD Karten.ZeroZerp schrieb:Ansonsten - Schön zu sehen, dass die GCN Architektur in diversen Disziplinen halt doch, aller Unkenrufen zum Trotz, die Leistung auf die Straße bringen kann.
Mich würde mal wirklich interessieren, was ein Studio z.B aus der VII rausholen kann, wenn es von Grund auf die Rendering Pipeline auf GCN ausrichtet inkl. nutzung aller Features.
LG
Zero
Dann brauchst/nutzt du sicher auch kein Win 10 da reicht ein Win 7 für dich auch noch nach 2020.Zero_Point schrieb:Wird seit 2015 jedes Jahr prophezeit. Auch dieses Jahr wette ich wieder dagegen.
Es reicht immerhin AMD mit DX12 in Schach zu halten. Zur Zukunft siehe oben.
LowLevel API ist Harwarenahe programmierung und somit müssen die Programmierer auch die entsprechend der HW gegebenen Featursets nutzen und vor allem sauber einsetzen. Paradebeispiel wie schon genannt DooM. Hier ist auch der grosse Vorteil der AMD HW Implementierung von DX12 erkennbar geworden. Deren DX12 featureset steht in der leistungssteigernden Funktionalität bei DX12 über dem damaligen von NV. AS Shader und einige andere Dinge die deshalb auf den bis zu der Zeit aktuellen NV Generationen eben keine grossen oder gar keine Auswirkungen hatten.kisser schrieb:Dieses Ausrichten auf die Architektur ist größtenteils Sache des Treibers, das ist ja der Sinn hardware-unabhängiger APIs. Der Programmierer braucht sich gar nicht darum zu kümmern, welche Hardware angesprochen wird.
KorrektZeroZerp schrieb:Und der Programmierer muss das Featureset unterstützen, ansonsten steht die Grafikkarte im "Kompatibilitätsmodus" bzw. waffenlos da.
LG
Zero
Das würde ich so nicht sagen.kisser schrieb:Das ist Unsinn.
Auch- Der Programmierer hat aber durchaus in der Hand, wie die Daten zur GPU gelangen, auch darauf was wann auf dem GPU- eigenen Speicher gelagert wird. Das kann der Hardware liegen oder nicht.kisser schrieb:Dieses Ausrichten auf die Architektur ist größtenteils Sache des Treibers, das ist ja der Sinn hardware-unabhängiger APIs. Der Programmierer braucht sich gar nicht darum zu kümmern, welche Hardware angesprochen wird.
Danke dafürZeroZerp schrieb:Kleine Anekdote am Rande. Zu meinem Namen kam es aufgrund eines einfachen Vertippers. Wollte eigentlich Zerozero als Anspielung auf 00 -also Klo- nehmen
Bin einfach ein Tippidiot...
ZeroZerp schrieb:Und dann wäre es noch interessanter, wenn AMD sowas wie nVidia nsight rausbringen würde und man dann herunterbrechen könnte, welche Einheit wie effizient arbeitet und was jeweils den Flaschenhals darstellt, wenn die Karte ausgelastet ist.