• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Starfield: Technik-Partnerschaft mit AMD könnte DLSS blockieren

Verstehe den Aufschrei nicht, FSR 2 läuft ja auf Karten beider Hersteller.
Was umgekehrt nicht der fall ist mit DLSS.
 
  • Gefällt mir
Reaktionen: _Cassini_, Kommando und graysson
Taurus104 schrieb:
Adaptiv Sync wurde nicht alleine von Nvidia entwickelt sondern ist ein zertifiziertes Feature des VESA Standards auf dem Freesync, Gsync Compatible etc. basieren.
Ich meinte Nvidias Engagement bezogen auf deren Techniken, die dann den Weg für die offenen Konkurrenztechnologien bereiteten.
Taurus104 schrieb:
HyperRX ist eine zusammenfassende Oneklick Option der bereits vorhanden Features Radeon Anti Lag, Boost und RSR welche derzeit nicht zusammen genutzt werden können um die Latenz zu reduzieren.
Das ist natürlich äußerst schade. Ich habe dank so mancher Überschriften und Artikel angenommen AMD würde gegen Reflex etwas gleichwertiges anbieten wollen.
Taurus104 schrieb:
Ist ein Hardware Enthusiastenforum oder die allgemeine Techbubble der Maßstab für den Gamingmarkt dessen Gamer?
Es geht um ein AAA Game Namens Starfield. Das kann der Durchschnittsspieler doch gar nicht zocken.
 
  • Gefällt mir
Reaktionen: xXBobbyXx
Hört bitte auf mit G-Sync. Hauptfunktion des Chips im Monitor ist es, bestimmte Nvidia Karten am anderen Ende zu authentifizieren zur Benutzung von G-Synch. Darum ist G-Sync auch tot.

DLSS ist auch bald tot...
Zu teuer für zu wenig Mehrwert.
 
  • Gefällt mir
Reaktionen: graysson
Bachi82 schrieb:
Das ist natürlich äußerst schade. Ich habe dank so mancher Überschriften und Artikel angenommen AMD würde gegen Reflex etwas gleichwertiges anbieten wollen.
Haben sie doch schon längst.
Reflex ist nur eine Software die den Inputlag reduziert. AMD Antilag macht genau das gleiche.
Beide funktionieren sogar auf der selben Basis.
HyperRX sollte ja nur FSR + Antilag und Boost zusammenführen aber leider hat man auch hier die Deadline verpasst. Sollte eigentlich im ersten Halbjahr veröffentlicht werden.
 
  • Gefällt mir
Reaktionen: xXBobbyXx
GrooveXT schrieb:
Nichts davon hat AMD Technologie verhindert.
Da muss ich widersprechen! Zumindest HairWorks war Nvidias Reaktion auf AMDs „TressFX“ (Was übrigens direkt bei der Veröffentlichung bereits offen war, Nvidia hätte es also einfach auch nutzen können, hat dann aber mit HairWorks gekontert, das überraschenderweise proprietär und nur auf Nvidia läuft.)
 
  • Gefällt mir
Reaktionen: Iscaran und graysson
GrooveXT schrieb:
Nein, PhysiX lief auch ganz normal auf jeder CPU. Wenn man aber richtig Feuer haben wollte, musste das ganze hardwarebeschleunigt werden, zuerst durch extra Beschleunigerkarten und dann durch GeForce Karten. Die Optimierung für CPUs waren zugegebenermaßen etwas fragwürdig, funktioniert hat es trotzdem. Und es gab andere Physik-Engines, die waren aber auf der CPU auch nicht viel besser und boten dafür gar keine Hardwarebeschleugiung.

Stell dir also vor, es hätte damals eine AMD beschleunigte Physik-Engine gegeben und man hätte in einem Spiel sowohl AMD FysX und Nvidia PhysiX einbauen können und Nvidia hätte dann gesagt, nein wenn wir Boot sind, gibts keine AMD FysX - genau dann und nur dann hätte man die gleiche Situation. Nur so war es nicht.
Sorry, das ist offengesagt blödsinn. Mit aktivem PhysX hatte ich ne Slideshow. Kaum abgestellt lief es vollkommen smooth.
Und zudem war es so, dass selbst eine zusätzliche Nvidia-Karte nicht für PhysX genutzt werden konnte, wenn eine AMD/ATI-Karte im System war. Das wurde von Nvidia aktiv im Treiber unterbunden.
Die CPU-Unterstützung wurde erst besser, nach dem PhysX nicht mehr der Hype war und Konkurenz durch andere Physikengines hatte. Warum wohl?

Cunhell
 
  • Gefällt mir
Reaktionen: Krazee
cunhell schrieb:
Diese Möglichkeit ergab sich bei der von mir erworbene Edition erst nach der Bearbeitung der ini-Datei.

Halte mich also nicht für ganz blöd.

Cunhell

Aha. Die von Dir "erworbene Version". Pro-Tipp: Probier doch nächstes Mal eventuell einen anderen Warez-Anbieter :D .

Wie man zum Beispiel hier sehen kann, war das eine simple Checkbox im Menü, wo man 'Advanced PhysX' an- oder ausschalten konnte.
 
  • Gefällt mir
Reaktionen: xXBobbyXx
cruscz schrieb:
Da muss ich widersprechen! Zumindest HairWorks war Nvidias Reaktion auf AMDs „TressFX“ (Was übrigens direkt bei der Veröffentlichung bereits offen war, Nvidia hätte es also einfach auch nutzen können, hat dann aber mit HairWorks gekontert, das überraschenderweise proprietär und nur auf Nvidia läuft.)
Und Nvidia hatte dem Spielehersteller untersagt, zusätzlich auch TressFX einzubauen?
 
  • Gefällt mir
Reaktionen: xXBobbyXx, .Sentinel., Celinna und eine weitere Person
Taxxor schrieb:
Hier geht es darum, welche Features ein Entwickler in sein Spiel einbaut und damit was die Spieler nutzen können.

Also straft den Entwickler ab. Und sollte es vertraglich festgelegt sein, dann straft den Entwickler ab. Der geht auf etwaige Angebote ein.

Damit die Preise bei Nvidia nicht noch mehr durch die Decke gehen, ist AMD gerne gesehen.
Wehe aber, es gibt einen Konkurrenzkampf, dann ist mimimi.

Und der Unterschied zwischen Nvidia und AMD oder auch Intel und AMD ist, dass AMD immer noch aus der unterlegenen Position agiert.

Sowohl Nvidia oder auch Intel haben aus der überlegenen Position heraus ihre zweifelhaften Programme gefahren, um ihre überlegene Marktmacht zu zementieren.

AMD versetzt hier im Zweifel (denn keiner weiß, die das Spiel umgesetzt wird) höchstens Nadelstiche.
 
Taxxor schrieb:
Es geht nicht nur um die 1650 sondern um die komplette Liste. Da sind auch Karten wie ne GTX 760 drin.
Nimmt man die Karten mit denen Leute so ein Spiel spielen würde , sind es mehr als die Hälfte, wenn es insgesamt schon 40% sind
Als ob man mit diesen Karten starfield spielen könnte 😂
 
cunhell schrieb:
Sorry, das ist offengesagt blödsinn. Mit aktivem PhysX hatte ich ne Slideshow. Kaum abgestellt lief es vollkommen smooth.
Nein ist kein Blödsinn. Was meinste denn wie die Physik im Spiel berechnet wird, wenn du PhysiX "aus" gemacht hast? Du hast damit nur das Physiklevel runtergeregelt, die Physik kam immer noch aus der PhysiX-Engine.
cunhell schrieb:
Und zudem war es so, dass selbst eine zusätzliche Nvidia-Karte nicht für PhysX genutzt werden konnte, wenn eine AMD/ATI-Karte im System war. Das wurde von Nvidia aktiv im Treiber unterbunden.
Der Fakt ist mir auch gerade wieder eingefallen und der war tatsächlich eher mit der aktuellen Situation vergleichbar. Ist aber trotzdem noch auf einem ganz anderen Level.
cunhell schrieb:
Die CPU-Unterstützung wurde erst besser, nach dem PhysX nicht mehr der Hype war und Konkurenz durch andere Physikengines hatte. Warum wohl?
Nein, besser wurde es, nachdem man nachgewiesen hat, dass PhysiX nicht sonderlich gut optimiert war und sich die Leute beschwert haben. Konkurrenz in Form von Havok (fällt mir spontan als erstes ein) gab es schon lange, glaube die ist sogar älter als PhysiX auf Nvidia. Nur die boten halt gar keine Hardwarebeschleunigung.
 
  • Gefällt mir
Reaktionen: xXBobbyXx
RogueSix schrieb:
Aha. Die von Dir "erworbene Version". Pro-Tipp: Probier doch nächstes Mal eventuell einen anderen Warez-Anbieter :D .

Wie man zum Beispiel hier sehen kann, war das eine simple Checkbox im Menü, wo man 'Advanced PhysX' an- oder ausschalten konnte.
Mediamarkt in Deutschland.
Der Einstellmöglichkeiten fehlten und tauchten erst nach dem Anpassen der ini-Datei auf.
Aber egal. DU weisst es ja besser als ich, was bei mir damals ging und was nicht.

Cunhell
 
  • Gefällt mir
Reaktionen: graysson
cruscz schrieb:
Mir ist zumindest kein Spiel bekannt, dass mit beiden Technologien beworben wurde @Schlumpfbert
Kennst Du eines?
Ist egal, das ist keine Antwort auf meine Frage.
Hier geht es nicht darum, ob DLSS drin ist oder nicht.
Hier geht es einzig um die Frage, ob AMD dem Spielehersteller verboten hat, DLSS einzubauen.
 
  • Gefällt mir
Reaktionen: xXBobbyXx und .Sentinel.
GrooveXT schrieb:
Nein ist kein Blödsinn. Was meinste denn wie die Physik im Spiel berechnet wird, wenn du PhysiX "aus" gemacht hast? Du hast damit nur das Physiklevel runtergeregelt, die Physik kam immer noch aus der PhysiX-Engine.
Das ändert nichts daran, dass die Option fehlte und nach dem es möglich war sie abzuschalten, das Spiel lief und vorher nicht.
GrooveXT schrieb:
Der Fakt ist mir auch gerade wieder eingefallen und der war tatsächlich eher mit der aktuellen Situation vergleichbar. Ist aber trotzdem noch auf einem ganz anderen Level.
Stimmt. Hier wurde ganz offensichtlich bewusst etwas verhindert was gegangen wäre, und zwar von Nvidia!!
GrooveXT schrieb:
Nein, besser wurde es, nachdem man nachgewiesen hat, dass PhysiX nicht sonderlich gut optimiert war und sich die Leute beschwert haben. Konkurrenz in Form von Havok (fällt mir spontan als erstes ein) gab es schon lange, glaube die ist sogar älter als PhysiX auf Nvidia. Nur die boten halt gar keine Hardwarebeschleunigung.
Stimmt. Nvidia hat irgendwann mal die Limitierung auf einen CPU-Core herausgenommen. Aber auch erst, nach dem PhysX an bedeutung verloren hatte. Die Limitierung war künstlich um die GPU-Lösung noch besser darzustellen.

Cunhell
 
  • Gefällt mir
Reaktionen: graysson
cruscz schrieb:
Da muss ich widersprechen! Zumindest HairWorks war Nvidias Reaktion auf AMDs „TressFX“
Das könnte stimmen, allerdings lief Hairworks auch auf AMD Hardware und das nicht mal schlecht, nachdem AMD seine Schwäche in Tesselation behoben hat.
 
  • Gefällt mir
Reaktionen: xXBobbyXx
Schlumpfbert schrieb:
Es ist aber ein Unterschied, ob ich eine Technologie entwickle und der Wettbewerb die nicht unterstützt, oder ob ich einem Spielehersteller verbiete, die Technologie eines Konkurrenten zu verwenden.
Nur um letzteres geht es hier.
Es ist unfassbar erstaunlich, wenn man diesen Thread verfolgt, wie wenige den Kern der Angelegenheit zu begreifen scheinen.

Es ist etwas anderes, ob ich eigene Features entwickle und pushe, oder ob ich versuche die Konkurrenz auf Kosten der User zu behindern und den Markt negativ zu beeinflussen.

Auch interessant, wie viele Leute Schwierigkeiten haben zu erkennen, dass diverse Vergleiche nicht passend, wiederum andere Vorwürfe gegenüber beider Seiten aus der Luft gegriffen sind und wie hier offen eine Doppelmoral zur Schau gestellt wird.

Und jetzt ist das ja noch nicht mal so, dass AMD bereits zugegeben hätte, so zu handeln. Es gibt also nur einen Anscheinsbeweis.

Da merkt man mal wieder, wie scheisse dieser Markenfetisch ist und was er aus den Usern unterschiedlicher Marken macht. Da setzt bei manchem einfach komplett das Hirn aus.
 
  • Gefällt mir
Reaktionen: xXBobbyXx, Bachi82, Celinna und eine weitere Person
scryed schrieb:
Und ob man ein mod heranziehen sollte der aus eigenen referenzen um sich schlägt als voreingenommen ist ein mod sein sollte halte ich für schwierig
Kleiner Tipp.. Es gibt weitere Foren als CB...

Alter dein Diskussionsstil ist mal echt unter aller Sau. Bist du Mitarbeiter bei NV, oder plapperst du echt nur das Marketing nach?
Selbst CB sagt hier klar, dass in neuen Spielen, der Unterschied von DLLS und FSR nicht mehr gegeben ist. Und ja DLSS dient dazu, dass NV sich ein neuen Markt aufbaut.. Das dient nicht den Kunden ;)


Sonst gibts nichts zu sagen, denn der Rest hat hierzu genug gesagt..
 
Zuletzt bearbeitet:
cunhell schrieb:
Das ändert nichts daran, dass die Option fehlte und nach dem es möglich war sie abzuschalten, das Spiel lief und vorher nicht.
Dazu kann ich nichts sagen, habe damals viele Spiele gezockt sowohl mit ATI als auch Nvidia Karten. Mir ist nie eins untergekommen, dass ich wegen PhysX nicht spielen konnte.
cunhell schrieb:
Stimmt. Hier wurde ganz offensichtlich bewusst etwas verhindert was gegangen wäre, und zwar von Nvidia!!
Jap, dass ist richtig. Wie gesagt krude Konstellation, aber NV hat das wirklich verhindert, kann man nicht wegdiskutieren. Allerdings war das vor 10 Jahren und hat nur entfernt was mit der aktuelle Situation zu tun.
cunhell schrieb:
Stimmt. Nvidia hat irgendwann mal die Limitierung auf einen CPU-Core herausgenommen. Aber auch erst, nach dem PhysX an bedeutung verloren hatte.
Nvidia hat 2008 PhysX gekauft, da waren Dual-Core CPUs im Mainstream Standard und Multicore Programmierung noch der heilige Gral, keine Ahnung was man da erwartet hat. 2011 wurde auf Multicore umgestellt, da sind noch massig Games raus gekommen die mit PhysX unterwegs waren. An der Bedeutung kann es also nicht gelegen haben. Aber das ist am Ende auch egal, der Druck war da und man musste reagieren.

Finde ich das gut? Nein. Würde ich es genau so machen? Ja klar. Ich kaufe und entwickle ja keine Technologie damit andere ihr Geld damit verdienen. ATI, AMD und Intel haben zu dem Zeitpunkt nämlich genau gar nichts gemacht.
 
  • Gefällt mir
Reaktionen: xXBobbyXx, Celinna und Bachi82
cunhell schrieb:
Mediamarkt in Deutschland.
Der Einstellmöglichkeiten fehlten und tauchten erst nach dem Anpassen der ini-Datei auf.
Aber egal. DU weisst es ja besser als ich, was bei mir damals ging und was nicht.

OK, das ist ja alles ewig her und vielleicht war es ja so, dass das Spiel bei Erkennen einer bestimmten Hardware (AMD) die Option gar nicht erst im Menü angezeigt hat?

Mal angenommen, das wäre so gewesen: Was sagt uns das? Das wird ja seinen Grund gehabt haben, nämlich den, dass das Feature zur damaligen Zeit nun mal nur GPU-beschleunigt dank Hardware-Support auf nVidia Karten (vernünftig spielbar) gelaufen ist.

Wenn Du dann hingehst und ein Feature per *ini Gefummel aktivierst, was für Deine Hardware gar nicht gedacht ist, dann ist das doch Dein Problem.

Die ganze Diskussion ist aber völlig überflüssig, denn es ist und bleibt Fakt: nVidia hat den Entwickler von Metro 2033 nicht bezahlt, um irgendwelche AMD Features aus dem Spiel auszuschließen. Das Spiel hatte ja Physik, nur etwas weniger effektgeladen. Advanced PhysX war ein Bonus, ein Extra, ein Bonmot.

nVidia hat möglicherweise den Entwickler bezahlt oder ein gegenseitiges Marketingabkommen geschlossen, um "Advanced PhysX" in dem Spiel zu haben und zwar als -es wird langsam müßig- E-X-T-R-A.
nVidia haben den Entwickler aber NICHT bezahlt, um irgendetwas von AMD auszuschließen.

Wie oft muss man das noch wiederholen? Ich persönlich hätte null Probleme damit, wenn AMD in Starfield irgendwelche ihrer eigenen Technologien als E-X-T-R-A im Zuge einer Sponsorship implementieren würden. Schön für die AMD User. Super. Fein. Haut rein!
In, ich glaube Far Cry 6, konnte ich als nVidia User auch einige ausgegraute Punkte im Menü nicht nutzen. Na und? Das ist mir egal, solange ansonsten nicht vorsätzlich durch Bestechung von Entwicklern sabotiert wird.

Ergo: Das Problem bei Starfield ist und bleibt, dass AMD schlicht per Bestechung dafür sorgt, dass das leicht zu implementierende Feature eines Mitbewerbers absichtlich ausgeschlossen wird.

Von mir aus kann AMD ansonsten so viel hauseigenen Firlefanz an Features und Effekten im Verbund mit Bethesda in das Spiel reindödeln wie sie lustig sind. Mir egal.
Nicht egal ist mir das schäbige Bestechen des Entwicklers, um aktiv etwas auszuschließen, was in Anbetracht der Martktanteile der Mehrzahl der PC Käufer einen Mehrwert bringen würde.

Und ebenso nicht egal ist mir die Kommunikationspolitik von AMD. Sollen sie doch ehrlich sagen, dass das Spiel exklusiv nur FSR supporten wird. Wenn AMD Eier hätten, bräuchten sie da kein Geheimnis draus machen.
Das Schweigen und die Ryzen CPU-Promo sprechen doch Bände. Natürlich ist da Geld Richtung Bethesda geflossen und zwar nicht zu knapp.
 
  • Gefällt mir
Reaktionen: Quidproquo77, xXBobbyXx, Celinna und 2 andere
Zurück
Oben