Cleanor schrieb:Warum das denn?
Ich bin bis auf Bloodbourne froh keiner zu sein!
Armored Core 6, ER, CP 2077...
bessere Preise, besseres Gameing (FPS+Settings)
Ach da kann man ewig diskutieren, beides hat Vor und Nachteile.
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Cleanor schrieb:Warum das denn?
Ich bin bis auf Bloodbourne froh keiner zu sein!
Armored Core 6, ER, CP 2077...
bessere Preise, besseres Gameing (FPS+Settings)
Carsti80 schrieb:Seltsam, die Patentlage sieht anders aus. Der eine arbeitet für einen Industriestandart, der andere macht sein eigenes Ding.
Carsti80 schrieb:Natürlich proprietäre Software wid dem Kunden geschenkt. OpenSource kostet halt. .... Liest Du auch mal was Du so schreibst? Nein? Stimmt fällt auf.
Hau noch Lumasharpen rein, HDR Fake mit1200 bis 1250 und meine "Clarity". Unter "Clearitystength" verbessert man die Weitsicht, der Nebel verschwindet. Aber, es gibt dann eine Weiss-Überblendung. Es wird sichtbar, wenn man in den Himmel schaut. Dafür wird jedoch die Sichtweite erhöht, hat mir i dem Spiel "Death Stranding" sehr geholfen.Manegarm schrieb:Links Ultra, rechts Niedrig.
55 ist noch viel.
Manegarm schrieb:Links Ultra, rechts Niedrig.
55 ist noch viel.
Oder es wurde mit Blick auf die Konsolen optimiertw0wka schrieb:Entwickler wurden gekauft oder haben geschlampt. Oder auch beides.
Lachsrolle schrieb:Nach etwa bislang 8 Stunden, dem Erreichen von Level 10 muss ich sagen: Ja, nettes Spiel. Werde mit Mods (ich erwarte Stargate und The Expanse-Mods) mit Sicherheit einiges an Spaß noch haben
Aaaaaaber
Bethesda kann einfach keine UI machen. Gott ist das alles frickelig und hakelig. Das Weltall bereisen wäre um einiges entspannter, müsste man nicht 10x "ja" bestätigen. Auch die Default-Steuerung ist schrecklich (Medikit auf 0!!!)
AMD Unterstützt offene Standards, z.b. FSR funktioniert mit jeder Karte.Grestorn schrieb:AMD wäre eine "gute" Firma, die im Sinne der Kunden handelt, und NVidia würde generell gegen die Kunden agieren.
Grundsätzlich gebe ich dir da Recht aber ca. 30-40% weniger Leistung als eigentlich vorhanden sein sollte holtst du auch nicht mehr einem optimierten Treiber raus.catch 22 schrieb:Wenn es stimmt, dass Nvidia das Budget für die Teams, die in diesem Bereich tätig sind gekürzt hat, oder zumindest für dieses AMD sponsored Spiel, dann halte ich es für plausibel, dass die allgemeine Performance schwächer aussieht und der Entwickler sich das Leben bzgl. DLSS dann besonders einfach macht und den Part außen vorlässt, da er so sehr einfach Ressourcen für andere Bereiche / Dinge freisetzen kann.
Man könnte sagen, es ist ein Exklusiv-Titel für AMD-Besitzer :-D0mega schrieb:Ich bin ehrlichgesagt geradezu schockiert über das Fazit. Fanboy Gelaber von der einen oder anderen Seite hin oder her, aber so ein technisches Desaster, dass eine Karte die erwiesenermaßen rund 60% mehr Leistung hat schlechter abschneidet, sollte eigentlich zu einem heftigen Punktabzug in der Technik führen.
Starfield ist offensichlicht nicht auf AMD optimiert, sondern nvidia wurde hier mit voller Absicht ausgebremst. Etwas surreal![]()
EVtl mal ein wenig mit dem ram speed testen bzgl Skalierung, ob hier ein unterschied merkbar ist oder auch mal bei der cpu smt aus und ob die fps noch weiter in den Keller fallen.Manegarm schrieb:Genau
Ist das nur bei mir so oder wie?
Oder eine Granate ins Inventar, falls das funktioniert, den ohne Hände kämpfen sie dann gar nicht mehrLaphonso schrieb:Eine weitere Facette ist, dass ich durch Taschendiebstahl Waffen klauen kann und dadurch Gegner in den Faustkampf zwinge 😂
Also mit einem 3400G hatte ich P1 23 und avg 44 fps. ist also grenzwertig, jedoch auch hier gpu limitiert.Raucherdackel! schrieb:Das ist für mich sehr interessant! Ich habe einen optimierten 2400G. Allerdings habe ich nur 4 Kerne/8 Theads. Dafür taktet der bei Volllast auf allen Kernen nicht runter und bleibt immer bei seinen 3,92GHz.
Wie ist die CPU Auslastung bei dir? Könntest du mal SMT abschalten und schauen, ob das Game spielbar ist?
Jop...Lachsrolle schrieb:Bethesda kann einfach keine UI machen. Gott ist das alles frickelig und hakelig. Das Weltall bereisen wäre um einiges entspannter, müsste man nicht 10x "ja" bestätigen. Auch die Default-Steuerung ist schrecklich (Medikit auf 0!!!)
Das tun sie aber trotzdem nicht aus goodwill sondern weil sie wissen das ein eigener geschlossener Standard für sie mehr hinderlich als vorteilhaft wäre.mcsteph schrieb:AMD Unterstützt offene Standards, z.b. FSR funktioniert mit jeder Karte.
Das ist doch völlig Wurst was der Grund ist. Und du äußert nur Vermutungen! AMD unterstützt alle Grafikkarten, ob es FSR oder Freesync ist, Punkt.Atnam schrieb:Das tun sie aber trotzdem nicht aus goodwill sondern weil sie wissen das ein eigener geschlossener Standard für sie mehr hinderlich als vorteilhaft wäre.
Wer schreibt was von Mantle, schmeiss mal Google an. Trag jemanden wie Dir nicht alles dem faulen Hintern nach.Grestorn schrieb:Ich habe begründet woran das liegt. AMD hat nichts zum herschenken. Welche Innovation der letzten Jahre kam von AMD und ist OSS?
Mantle war ja auch sooo sehr OSS.
AMD schafft sogar diese Standards mit anderen Anbietern und der Industrie zusammen. Habe von keinem genormten NVIDEA-Standart gehört. Intel und AMD z.B. hingegen arbeiten gut zusammen und bringen die Welt voran.mcsteph schrieb:AMD Unterstützt offene Standards, z.b. FSR funktioniert mit jeder Karte.
Du hast was anderes geschrieben. Glückwunsch zur Erinnerungslücke.Grestorn schrieb:Wo liest Du das aus meinem Posting raus? Diese Antwort ist völlig kontextlos und unzusammenhängend zu meinem Beitrag.
Natürlich kostet proprietäre Software etwas. Und wir Kunden von NVidia bezahlen das mit den Produkten, die schlicht teurer sind.
Hype und letztendliche , praxisrelevante Anwendung. Teilst du uns mit, welche Hardware du spielst?HardcoreGaymer schrieb:Hab jetzt 4 Stunden in dem Game und bin mehr als zufrieden...sieht gut aus, spielt sich selbst auf ULTRA mit meinem System (ausreichend) flüssig und bisher keine Bugs oder Abstürze.
Nein, weil sie nicht so agieren würden, wenn sie an Stelle von Nvidia wären.mcsteph schrieb:Das ist doch völlig Wurst was der Grund ist.
So ein Quatsch. Die Tech direkt zwischen Grafikkarte und Hauptspeicher umzukopieren ist von AMD erdachte Tech. Wo ist da denn das proprietäre? Machen andere das etwa auch?Atnam schrieb:Ich glaub es ehrlich gesagt nicht weil sie dann ein Feature hätten das ihre eigenen Verkäufe ankurbeln kann und Nvidia könnte die Arbeit in DLSS einstellen und schön auf der FSR Welle mitschwimmen.