• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Starfield: Technik-Partnerschaft mit AMD könnte DLSS blockieren

Es ging um "Konkurrenz ausgeschlossen". Dachte Du fragst wirklich aus Interesse und nicht aus "Verteidigungsdrang".
 
RogueSix schrieb:
Im Übrigen halte ich das von AMD für strategisch ungeschickt. nVidia sind keine Kinder von Traurigkeit und haben im Zweifel die tieferen Taschen. Wenn AMD jetzt "shots fired", dann wird nVidia vermutlich antworten und in irgendeiner Form nachziehen. Das könnte in einer Eskalationsspirale enden...
Ja.. nur wenn dann Mal abwechselnd DLSS und FSR angeboten wird beim Spielekauf fährste mit ner Nvidia karte trotzdem besser weil du immer irgent eine Form von upscaling hast.

Mit Ner AMD guckst du dann Zweidrittel der Spiele Doof
 
  • Gefällt mir
Reaktionen: xXBobbyXx, Celinna und Taxxor
RogueSix schrieb:
Nein, haben sie nicht. Als es noch Hardware PhysX Support gab -und das waren nicht allzu viele Spiele, die das überhaupt unterstützt haben- war das immer ein EXTRA für etwas mehr "Schickimicki"-Effekte, aber mehr auch nicht.



nVidia Stormworks incoming... :D
Darum musste ich bei Metro 2033 erst in einer ini-Datei einige Einträge machen, damit ich im Spielemenü PhysX abschalten konnte? Ohne war der Schalter einfach nicht vorhanden.
Wie das Spiel lief, wenn die CPU die Berechung machte, muss ich glaube ich, nicht weiter ausführen.

War natürlich nur Zufall, nicht wahr?

Cunhell
 
  • Gefällt mir
Reaktionen: Iscaran und graysson
Kommando schrieb:
Dachte Du fragst wirklich aus Interesse und nicht aus "Verteidigungsdrang".
Ja, ich dachte mir wäre da wirklich was durchgegangen. Hätte ja sein können, dass man damals Havok und Physix zeitgleich einbauen konnte und Nvidia das verhindert hat. Zu der Zeit war ich noch nicht so fit in der Materie. Oder vielleicht gab es ja schon Konkurrenz zur Hairworks die Nvidia unterdrückt hat.
Verteidigen muss man hier gar nichts, die Themen haben halt gar nichts miteinander zu tun.
 
Zuletzt bearbeitet:
cunhell schrieb:
Darum musste ich bei Metro 2033 erst in einer ini-Datei einige Einträge machen, damit ich im Spielemenü PhysX abschalten konnte? Ohne war der Schalter einfach nicht vorhanden.
Und jetzt erklärst du uns noch, wie genau Nvidia dadurch die Implementierung einer Technologie eines Konkurrenten verboten hat.
 
  • Gefällt mir
Reaktionen: xXBobbyXx, MrHeisenberg, Atnam und eine weitere Person
@cunhell

Bei Metro 2033 gab es im Menü eine Checkbox für "Advanced PhysX". Da hättest Du einfach das Häkchen entfernen sollen, wenn Du schwächere Hardware hast, die kein "Advanced PhysX" kann. Keine Ahnung, was Du da in der *ini rumgefummelt hast.

Übrigens ein perfektes Beispiel für ein EXTRA (wie oft soll ich das noch EXTRA groß schreiben? :D ). Man konnte Advanced PhysX aktivieren, um noch bessere Physikeffekte zu bekommen.

Aber hat nVidia hier den Entwickler bezahlt, damit AMD User gar keine Physikeffekte im Spiel haben? Nein. Natürlich nicht. Weil ein Spiel ohne Physik ja gar nicht funktionieren würde.

Insofern danke für das gute Beispiel :) .
 
  • Gefällt mir
Reaktionen: xXBobbyXx und Celinna
MrHeisenberg schrieb:
Das würde aber nicht erklären, weshalb AMD mehrere Anfragen ignoriert und selbst Wochen später nichts dazu kommentiert.
Das könnte aber genau so gut dass Resultat einer inkompetenten, ahnungslosen Presseabteilung sein.
 
TKessel schrieb:
Schonso, aber Starfield ist ein so großer Titel, dass es wohl den ein oder andern Menschen da draußen tatsächlich dazu bewegen wird in eine neue GPU zu investieren. Die Masse kauft dann aber keine 4090 sondern schaut nach günstigen Alternativen.
Und unterhalb der 4090 gibt es ne Menge Auswahl bis zur 2060 runter, die DLSS fähig sind und die die Mehrheit der Spieler besitzen wird

_Cassini_ schrieb:
@Taxxor darfst du Starfield nicht mit einer 1650 spielen? Wird es darauf etwa nicht laufen? Sind die Mindestanforderungen mit FSR gerechnet?
Es geht nicht nur um die 1650 sondern um die komplette Liste. Da sind auch Karten wie ne GTX 760 drin.
Nimmt man die Karten mit denen Leute so ein Spiel spielen würde , sind es mehr als die Hälfte, wenn es insgesamt schon 40% sind
 
  • Gefällt mir
Reaktionen: xXBobbyXx
GrooveXT schrieb:
Ja, ich dachte mir wäre da wirklich was durchgegangen. Hätte ja sein können, dass man damals Havok und Physix zeitgleich einbauen konnte und Nvidia das verhindert hat. Zu der Zeit war ich noch nicht so fit in der Materie. Oder vielleicht gar es ja schon Konkurrenz zur Hairworks die Nvidia unterdrückt hat.
Verteidigen muss man hier gar nichts, die Themen haben halt gar nichts miteinander zu tun.
Äh doch. Du willst halt nur deine Firma verteidigen. Aber macht mal. Ist hier eh nur Hin- und Hergebashe.
 
Eagle-PsyX- schrieb:
G-Sync beruht im Gegensatz zu AdaptivSync und FreeSync auf einen proprietären Chip (G-Sync Modul) der seitens des Monitors verbaut sein muss (damals für ~250 € Aufpreis {sic!}).
Das war ein Alleingang. Völlig richtig. Es dauerte aber Jahre bis die Konkurrenz nachgezogen ist, bzw. eine halbwegs gleichwertige Lösung anbot.
Eagle-PsyX- schrieb:
Bildausgabe und Bildfrequenz zu synchronisieren ist kein Hexenwerk, wie sich durch die offenen Standards einfach zeigen lässt.
Die auf Initiative von AMD erst einmal geschaffen wurden.
Eagle-PsyX- schrieb:
NVIDIA nutzt den Term aus Marketing-Gründen offenbar noch, anstatt einfach AdaptivSync oder FreeSync zu sagen...
Freesync ist der Marketing Term von AMD.
AYAlf schrieb:
Es wird mal Zeit, dass AMD auch damit anfängt.
Nein, danke.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: xXBobbyXx
up.whatever schrieb:
Das könnte aber genau so gut dass Resultat einer inkompetenten, ahnungslosen Presseabteilung sein.
Klar, wochenlang. Was muss passieren, dass User wie du endlich mal zugeben, dass AMD hier Bockmist gebaut hat? Ihr habt scheinbar für alles ne Ausrede.
 
  • Gefällt mir
Reaktionen: xXBobbyXx
MrHeisenberg schrieb:
Das würde aber nicht erklären, weshalb AMD mehrere Anfragen ignoriert und selbst Wochen später nichts dazu kommentiert.
Kann aber auch hier sein, dass AMD gar nichts dazu sagen darf aus NDA Gründen.
 
RogueSix schrieb:
@cunhell

Bei Metro 2033 gab es im Menü eine Checkbox für "Advanced PhysX". Da hättest Du einfach das Häkchen entfernen sollen, wenn Du schwächere Hardware hast, die kein "Advanced PhysX" kann. Keine Ahnung, was Du da in der *ini rumgefummelt hast.

Übrigens ein perfektes Beispiel für ein EXTRA (wie oft soll ich das noch EXTRA groß schreiben? :D ). Man konnte Advanced PhysX aktivieren, um noch bessere Physikeffekte zu bekommen.

Aber hat nVidia hier den Entwickler bezahlt, damit AMD User gar keine Physikeffekte im Spiel haben? Nein. Natürlich nicht. Weil ein Spiel ohne Physik ja gar nicht funktionieren würde.

Insofern danke für das gute Beispiel :) .
Diese Möglichkeit ergab sich bei der von mir erworbene Edition erst nach der Bearbeitung der ini-Datei.

Halte mich also nicht für ganz blöd.

Cunhell
 
_Cassini_ schrieb:
Vor allem hat sich Adaptive Sync durchgesetzt, weil es offen für alle ist und nicht wie Gsync zwingend eine nVidia Karte benötigt (so wie DLSS auch).
Vor allem weil es mittlerweile die gleiche Qualität wie G-sync, mit kleinen Unterschieden bei HDR usw. bietet.
Eine offene Technologie setzt sich auch nur dann durch, wenn sie brauchbar ist.
_Cassini_ schrieb:
Wo schadet es jetzt genau dir als Kunden, wenn DLSS nicht integriert ist?
Erstens die niedrigere Qualität und zweitens muss AMD ihre Technologie nicht verbessern.
Man tritt also auf der Stelle und man hat den Eindruck, es wird sich bei FSR keine Mühe gegeben, wenn kein DLSS integriert ist. Siehe Jedi:Survivior und Resident Evil.
_Cassini_ schrieb:
Schaden alle Entwickler die DLSS nicht implementieren dem Kunden? Heißt das, wenn XeSS nicht integriert ist, schadet das auch dem Kunden?
Ja, weil XeSS die Qualität von FSR häufig übertrifft. Intel macht seine Hausaufgaben.
Von denen erwarte ich eher eine Lösung als von AMD.
Iscaran schrieb:
BEIDE habe nur inoffiziellen FSR/DLSS support (also KEIN support seitens Game Entwickler)
Fallout 76 erschien im Oktober 2018.
Iscaran schrieb:
Mit anderen Worten bis heute gibt es KEINE Spiele mit Creation Engine welche überhaupt FSR ODER DLSS ODER BEIDES OFFIZIELL supporten.
Wenig verwunderlich, die Spielereleases sind lange her. Solange TAA integriert ist, ist der Aufwand laut AMD für FSR geringfügig.
Iscaran schrieb:
Fallout 76 => kein FSR/DLSS
Fallout 4 => Kein FSR/DLSS (nur inoffiziell)
Black Prophecy => kein FSR/DLSS
Catherine => kein FSR/DLSS
Divinity 2 => kein FSR/DLSS
Ragnarok Online 2: Legend of the Second => kein FSR/DLSS
RIFT => kein FSR/DLSS
The Elder Scrolls V: Skyrim => kein FSR/DLSS (nur inoffiziell)


Ich meine da ein gewisses Muster zu erkennen, das aber weder mit AMD noch mit nVidia zu tun hat...
Ja, diese Spiele sind uralt. Das gleiche Muster wie bei Age of Empires 1, das hat auch weder DLSS noch FSR.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: xXBobbyXx
Kommando schrieb:
Äh doch. Du willst halt nur deine Firma verteidigen.
Meine Firma? Das wäre geil. Aber dann wäre ich hier nicht im Forum unterwegs. Was hätte ich also davon?

Mir gehts aber tierisch auf die Nerven das den Leuten immer mehr das Leseverständnis abhanden kommt und sie lieber rumbashen als das Problem richtig zu erfassen.
Das Problem was hier diskutieren ist nicht, dass jemand eine proprietäre Technologie entwickelt hat und einem Konkurrenten keine Zugang gewehrt, sondern schlicht das man sich gegenseitig nicht beeinflussende Technologien absichtlich ausschließt.
Das macht Nvidia als Firma nicht besser, genauso wenig gewisse Praktiken die sie anwenden und wenn AMD einfach mal State-of-the-art GPUs bringen würde, wäre ich auch sofort bereit zu wechseln. Aber das ist ein anderes Thema, genau wie Physix, Hairworks und G-Sync.
 
  • Gefällt mir
Reaktionen: xXBobbyXx und .Sentinel.
Schlumpfbert schrieb:
Und jetzt erklärst du uns noch, wie genau Nvidia dadurch die Implementierung einer Technologie eines Konkurrenten verboten hat.
Es geht Euch doch bei DLSS um die Performance, oder? Ich kann etwas weglassen oder etwas hinzufügen. Der Unterschied ist nur, FSR läuft auch auf Nvidia-Karten. PhysX lief NUR auf Nvidia-Karten und war die EINZIGE Physikengine.
Abgesehen davon weiß noch keiner, wie gut FSR in dem Spiel funktioniert.

Es gibt eine News, die nicht mal bestätigt ist, und alle Nvidia-User rotieren auf höchsten Drehzahlen.

Cunhell
 
  • Gefällt mir
Reaktionen: Kommando
7hyrael schrieb:
Kann aber auch hier sein, dass AMD gar nichts dazu sagen darf aus NDA Gründen.
Jetzt wird es richtig abenteuerlich. Also:

Spielehersteller sollen AMD mit NDA verpflichtet haben nicht zu sagen, dass sie nicht sagen dürfen, dass sie mit den Spieleentwicklern keine Vereinbarung getroffen haben, DLSS nicht zu implementieren.
 
  • Gefällt mir
Reaktionen: xXBobbyXx
Das fehlen von DLSS macht Starfield oder andere Spiele weder besser noch schlechter spieletechnisch, gleiches gilt für FSR.

Und trotz diesem Aufreger in der Techbubble wird Starfield gekauft werden so wie jedes COD immer und immer wieder gekauft wird.
 
Bachi82 schrieb:
Das war ein Alleingang. Völlig richtig. Es dauerte aber Jahre bis die Konkurrenz nachgezogen ist, bzw. eine halbwegs gleichwertige Lösung anbot.
Leute...AdaptiveSync existiert schon 2009 im eDP. Erst mit DP 1.2a haben sie es für externe Monitore freigegeben. Es ist eigentlich umgekehrt: Freesync und Gsync Compatible basieren auf AdaptiveSync, haben aber zusätzliche Anforderungen.

Und 2014 hat Nvidia noch das gesagt zu AdaptiveSync: "Although there is no license fee or royalty for VESA's DisplayPort 1.2a specification, as with any technology, there is a cost to develop, implement, and bring products to market. NVIDIA is supportive of industry standards, but not every standard succeeds in the market place. We take a pragmatic approach and support what matters to our customers."

Sie haben gehofft das G-Sync sich durchsetzt, aber der Consumer sagte: zu teuer! Also musse nachträglich G-Sync Compatible implementiert werden.

Und bedenkt wie alt AdaptiveSync ist: Erst im 2022 wurde eine Zertifizierung für Displays eingeführt und in Mai 2023 mit Version 1.1 noch strenger ausgelegt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: N0Thing, _Cassini_, Iscaran und eine weitere Person
cunhell schrieb:
Der Unterschied ist nur, FSR läuft auch auf Nvidia-Karten. PhysX lief NUR auf Nvidia-Karten und war die EINZIGE Physikengine.
Nein, PhysiX lief auch ganz normal auf jeder CPU. Wenn man aber richtig Feuer haben wollte, musste das ganze hardwarebeschleunigt werden, zuerst durch extra Beschleunigerkarten und dann durch GeForce Karten. Die Optimierung für CPUs waren zugegebenermaßen etwas fragwürdig, funktioniert hat es trotzdem. Und es gab andere Physik-Engines, die waren aber auf der CPU auch nicht viel besser und boten dafür gar keine Hardwarebeschleugiung.

Stell dir also vor, es hätte damals eine AMD beschleunigte Physik-Engine gegeben und man hätte in einem Spiel sowohl AMD FysX und Nvidia PhysiX einbauen können und Nvidia hätte dann gesagt, nein wenn wir im Boot sind, gibts keine AMD FysX - genau dann und nur dann hätte man die gleiche Situation. Nur so war es nicht.

Edit:
Einen Vorgang um PhysiX gab es dann doch der entfernt zu der aktuellen Situation passt. Nämlich sind die Leute damals dazu übergangen kleine GeForce Karten neben ihren ATI/AMD-Karten als PhysiX-Beschleuniger zu verbauen. Das hat Nvidia dann per Treiber unterbunden und verhindert das PhysiX beschleunigt wurde, wenn anderen Grafikkarten im System waren. Zumindest war das mal ne Zeit lang so, es gab da auch viel Protest, weiß gar nicht mehr was daraus geworden ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: xXBobbyXx und Celinna
Zurück
Oben