Sie sind idiotisch! Leider verständlich.Baal Netbeck schrieb:All die schonmal gehobenen Bugs, die im AMD Treiber wieder auftauchen sind für mich unverständlich...
schon mal in der QA gearbeitet?
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Sie sind idiotisch! Leider verständlich.Baal Netbeck schrieb:All die schonmal gehobenen Bugs, die im AMD Treiber wieder auftauchen sind für mich unverständlich...
Die 2060 geht nur dann in die Knie, wenn man manuell die Streaming- Einstellung auf einen Wert erhöht, der selbst über dem Wert der Qualitätsstufe "mein Leben" steht.PS828 schrieb:Aber was Wolfenstein auch offenbart hat, ist dass wir hier einen RT Titel haben, welcher die 6 GB der 2060 derart beansprucht dass es zu signifikanten Einbrüchen kommt und die 6 GB hier zum ersten Mal wirklich zum Problem bei RT werden, auch in Full HD.
Entgegen meiner vorhergehenden Einstellung dazu und dadurch dass ich in Sachen DXR Programmierung ein wenig Erkenntnisse gewonnen habe, stimme ich dem inzwischen zu.Deshalb ist es meiner Meinung nach auch essenziell dass die hersteller im zukünftigen high end und in der Mittelklasse aufhören VRAM zu sparen.. Ich will RT auch mal oberhalb vom Full HD spielbar sehen. 4k am liebsten ^^
Unnu schrieb:Häh? Ist es denn nicht mittlerweile so, dass alle Produkte mal mehr (Zen), mal weniger gut mit ihrer jeweiligen Node quasi verschmolzen werden, um das Optimum zu erreichen?
Da würde nVidia ja aus der Reihe tanzen, täten sie das nicht auch für Volta. Kannst Du mir das bitte erklären was Du mit dieser Aussage meinst? Merci
yummycandy schrieb:Klar, das schon. Nur versuchen sie sowieso DIE-Fläche zu sparen, um die Kosten zu senken. Die werden sich keine APU einbauen, bei der die GPU nochmals größer als NAVI10 wird. Es sei denn RDNA2 bringt nochmals einen sehr großen Performancevorteil gegenüber RDNA1, was ich persönlich nicht annehme.
So ein next gen Schalter ist das, was er umschreibt. Next gen.PS828 schrieb:Das schöne an so einem next gen Schalter ist halt aber auch, dass er zeigt dass die 6GB ein wenig kurz gegriffen waren.
Da bin ich mir sicher....Die Programmierhintergründe sind mir nicht weiter bekannt, ist auch nicht mein Fachgebiet, aber die hersteller werden das beim Speicher sicherlich erkennen und entsprechend handeln damit sie satte Zuwächse verzeichnen können was die leistung angeht.
Die müssen nicht miteinander harmonieren. Sowohl die Hardwarelösungen von AMD als auch NVIDIA waren schon immer proprietär. Das wichtige ist nur, dass sie DX oder Vulkan kompatibel sind.Auch spielt dann damit rein wie gut die einzelnen Implementierungen von Nvidia und AMD miteinander harmonieren. Es wäre sehr schlecht für RT im ganzen wenn es immer nur entweder RTX oder AMDs Variante nativ unterstützt.
Genau- Das ist ja der ureigene Gedanke von Schnittstellen wie DirectX, auf welchen 99% der Spiele basieren.Sowas muss fließend sein mit geringen Abweichungen. Sonst ist das ganze Konstrukt unattraktiv, da man dann effektiv zwei Karten bräuchte damit man jedes Spiel ideal genießen kann. Sowas kann nicht gewollt sein und die beiden Kontrahenten Tuen gut daran hier und da an einem Strang zu ziehen. Sonst schadet es beiden
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Eine Verdoppelung wäre ja 16 GB. Und AMD geizt ja schon bei der 5600 XT mit Vram, das ruft bei mir nicht gerade Euphorie hervor.MrNejo schrieb:Erscheint mir niedrig angesetzt, ich halte eine Verdopplung in den meisten Leistungsbereichen für möglich und realistisch. Könnte mir 384bit und 24GB vorstellen, wenn man auf GDDR6 setzt.
Auch die 2080TI brechen bei jeder Software je nach Einstellung der Regler stark ein.PS828 schrieb:@ZeroZerp mit dem Schalter wollte ich eigentlich Aussagen: klar kommen alle aktuellen Karten ins Schwitzen, aber wenn eine gpu nach gerade einmal einer Generation schon stark einbricht wegen des Speichers
v_ossi schrieb:Die "Über"-Karte zum Selbstkostenpreis wird es nicht mehr geben. Von keinem Hersteller.
DLSS ist kein Filter für Bildschärfe.Rage schrieb:Was DLSS angeht: Davon ist scheinbar auch nVidia so sehr überzeugt, dass es jetzt umfangreiche Bildschärfungsoptionen im Treiber gibt, die CAS-basiert sind wie RIS.
ZeroZerp schrieb:DLSS ist ein KI getützter Algorithmus, der anhand eines Ursprungsbildes, welches in x- Facher Auflösung und 32x Supersampling vorliegt das Ausgangsmaterial in niedrigerer Auflösung daran annähert.
Rage schrieb:hochgerechnete und von Bildschärfern bearbeitete Bild
Das trifft eben nicht mehr zu... Das schreibe ich doch die ganze Zeit. Deine Beispielbilder zeigen wieder nur die ersten alten und schlechten DLSS Beispiele....Rage schrieb:@ZeroZerp Im direkten Bildvergleich ist das hochgerechnete und von Bildschärfern bearbeitete Bild trotzdem oft mindestens so gut, wie das von DLSS bearbeitete Bild.