-
Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Starfield: Technik-Partnerschaft mit AMD könnte DLSS blockieren
- Ersteller Vitche
- Erstellt am
- Zur News: Starfield: Technik-Partnerschaft mit AMD könnte DLSS blockieren
Blackfirehawk
Commander
- Registriert
- Dez. 2018
- Beiträge
- 2.354
Ja.. nur wenn dann Mal abwechselnd DLSS und FSR angeboten wird beim Spielekauf fährste mit ner Nvidia karte trotzdem besser weil du immer irgent eine Form von upscaling hast.RogueSix schrieb:Im Übrigen halte ich das von AMD für strategisch ungeschickt. nVidia sind keine Kinder von Traurigkeit und haben im Zweifel die tieferen Taschen. Wenn AMD jetzt "shots fired", dann wird nVidia vermutlich antworten und in irgendeiner Form nachziehen. Das könnte in einer Eskalationsspirale enden...
Mit Ner AMD guckst du dann Zweidrittel der Spiele Doof
Darum musste ich bei Metro 2033 erst in einer ini-Datei einige Einträge machen, damit ich im Spielemenü PhysX abschalten konnte? Ohne war der Schalter einfach nicht vorhanden.RogueSix schrieb:Nein, haben sie nicht. Als es noch Hardware PhysX Support gab -und das waren nicht allzu viele Spiele, die das überhaupt unterstützt haben- war das immer ein EXTRA für etwas mehr "Schickimicki"-Effekte, aber mehr auch nicht.
nVidia Stormworks incoming...
Wie das Spiel lief, wenn die CPU die Berechung machte, muss ich glaube ich, nicht weiter ausführen.
War natürlich nur Zufall, nicht wahr?
Cunhell
GrooveXT
Commander
- Registriert
- Jan. 2007
- Beiträge
- 2.451
Ja, ich dachte mir wäre da wirklich was durchgegangen. Hätte ja sein können, dass man damals Havok und Physix zeitgleich einbauen konnte und Nvidia das verhindert hat. Zu der Zeit war ich noch nicht so fit in der Materie. Oder vielleicht gab es ja schon Konkurrenz zur Hairworks die Nvidia unterdrückt hat.Kommando schrieb:Dachte Du fragst wirklich aus Interesse und nicht aus "Verteidigungsdrang".
Verteidigen muss man hier gar nichts, die Themen haben halt gar nichts miteinander zu tun.
Zuletzt bearbeitet:
Schlumpfbert
Lt. Commander
- Registriert
- Feb. 2005
- Beiträge
- 1.472
Und jetzt erklärst du uns noch, wie genau Nvidia dadurch die Implementierung einer Technologie eines Konkurrenten verboten hat.cunhell schrieb:Darum musste ich bei Metro 2033 erst in einer ini-Datei einige Einträge machen, damit ich im Spielemenü PhysX abschalten konnte? Ohne war der Schalter einfach nicht vorhanden.
RogueSix
Commander
- Registriert
- Apr. 2020
- Beiträge
- 2.817
@cunhell
Bei Metro 2033 gab es im Menü eine Checkbox für "Advanced PhysX". Da hättest Du einfach das Häkchen entfernen sollen, wenn Du schwächere Hardware hast, die kein "Advanced PhysX" kann. Keine Ahnung, was Du da in der *ini rumgefummelt hast.
Übrigens ein perfektes Beispiel für ein EXTRA (wie oft soll ich das noch EXTRA groß schreiben? ). Man konnte Advanced PhysX aktivieren, um noch bessere Physikeffekte zu bekommen.
Aber hat nVidia hier den Entwickler bezahlt, damit AMD User gar keine Physikeffekte im Spiel haben? Nein. Natürlich nicht. Weil ein Spiel ohne Physik ja gar nicht funktionieren würde.
Insofern danke für das gute Beispiel .
Bei Metro 2033 gab es im Menü eine Checkbox für "Advanced PhysX". Da hättest Du einfach das Häkchen entfernen sollen, wenn Du schwächere Hardware hast, die kein "Advanced PhysX" kann. Keine Ahnung, was Du da in der *ini rumgefummelt hast.
Übrigens ein perfektes Beispiel für ein EXTRA (wie oft soll ich das noch EXTRA groß schreiben? ). Man konnte Advanced PhysX aktivieren, um noch bessere Physikeffekte zu bekommen.
Aber hat nVidia hier den Entwickler bezahlt, damit AMD User gar keine Physikeffekte im Spiel haben? Nein. Natürlich nicht. Weil ein Spiel ohne Physik ja gar nicht funktionieren würde.
Insofern danke für das gute Beispiel .
up.whatever
Commander
- Registriert
- Dez. 2006
- Beiträge
- 2.651
Das könnte aber genau so gut dass Resultat einer inkompetenten, ahnungslosen Presseabteilung sein.MrHeisenberg schrieb:Das würde aber nicht erklären, weshalb AMD mehrere Anfragen ignoriert und selbst Wochen später nichts dazu kommentiert.
Taxxor
Fleet Admiral
- Registriert
- Mai 2011
- Beiträge
- 20.673
Und unterhalb der 4090 gibt es ne Menge Auswahl bis zur 2060 runter, die DLSS fähig sind und die die Mehrheit der Spieler besitzen wirdTKessel schrieb:Schonso, aber Starfield ist ein so großer Titel, dass es wohl den ein oder andern Menschen da draußen tatsächlich dazu bewegen wird in eine neue GPU zu investieren. Die Masse kauft dann aber keine 4090 sondern schaut nach günstigen Alternativen.
Es geht nicht nur um die 1650 sondern um die komplette Liste. Da sind auch Karten wie ne GTX 760 drin._Cassini_ schrieb:@Taxxor darfst du Starfield nicht mit einer 1650 spielen? Wird es darauf etwa nicht laufen? Sind die Mindestanforderungen mit FSR gerechnet?
Nimmt man die Karten mit denen Leute so ein Spiel spielen würde , sind es mehr als die Hälfte, wenn es insgesamt schon 40% sind
Äh doch. Du willst halt nur deine Firma verteidigen. Aber macht mal. Ist hier eh nur Hin- und Hergebashe.GrooveXT schrieb:Ja, ich dachte mir wäre da wirklich was durchgegangen. Hätte ja sein können, dass man damals Havok und Physix zeitgleich einbauen konnte und Nvidia das verhindert hat. Zu der Zeit war ich noch nicht so fit in der Materie. Oder vielleicht gar es ja schon Konkurrenz zur Hairworks die Nvidia unterdrückt hat.
Verteidigen muss man hier gar nichts, die Themen haben halt gar nichts miteinander zu tun.
Das war ein Alleingang. Völlig richtig. Es dauerte aber Jahre bis die Konkurrenz nachgezogen ist, bzw. eine halbwegs gleichwertige Lösung anbot.Eagle-PsyX- schrieb:G-Sync beruht im Gegensatz zu AdaptivSync und FreeSync auf einen proprietären Chip (G-Sync Modul) der seitens des Monitors verbaut sein muss (damals für ~250 € Aufpreis {sic!}).
Die auf Initiative von AMD erst einmal geschaffen wurden.Eagle-PsyX- schrieb:Bildausgabe und Bildfrequenz zu synchronisieren ist kein Hexenwerk, wie sich durch die offenen Standards einfach zeigen lässt.
Freesync ist der Marketing Term von AMD.Eagle-PsyX- schrieb:NVIDIA nutzt den Term aus Marketing-Gründen offenbar noch, anstatt einfach AdaptivSync oder FreeSync zu sagen...
Nein, danke.AYAlf schrieb:Es wird mal Zeit, dass AMD auch damit anfängt.
Zuletzt bearbeitet:
MrHeisenberg
Lt. Commander
- Registriert
- Okt. 2022
- Beiträge
- 1.713
Klar, wochenlang. Was muss passieren, dass User wie du endlich mal zugeben, dass AMD hier Bockmist gebaut hat? Ihr habt scheinbar für alles ne Ausrede.up.whatever schrieb:Das könnte aber genau so gut dass Resultat einer inkompetenten, ahnungslosen Presseabteilung sein.
Kann aber auch hier sein, dass AMD gar nichts dazu sagen darf aus NDA Gründen.MrHeisenberg schrieb:Das würde aber nicht erklären, weshalb AMD mehrere Anfragen ignoriert und selbst Wochen später nichts dazu kommentiert.
Diese Möglichkeit ergab sich bei der von mir erworbene Edition erst nach der Bearbeitung der ini-Datei.RogueSix schrieb:@cunhell
Bei Metro 2033 gab es im Menü eine Checkbox für "Advanced PhysX". Da hättest Du einfach das Häkchen entfernen sollen, wenn Du schwächere Hardware hast, die kein "Advanced PhysX" kann. Keine Ahnung, was Du da in der *ini rumgefummelt hast.
Übrigens ein perfektes Beispiel für ein EXTRA (wie oft soll ich das noch EXTRA groß schreiben? ). Man konnte Advanced PhysX aktivieren, um noch bessere Physikeffekte zu bekommen.
Aber hat nVidia hier den Entwickler bezahlt, damit AMD User gar keine Physikeffekte im Spiel haben? Nein. Natürlich nicht. Weil ein Spiel ohne Physik ja gar nicht funktionieren würde.
Insofern danke für das gute Beispiel .
Halte mich also nicht für ganz blöd.
Cunhell
Vor allem weil es mittlerweile die gleiche Qualität wie G-sync, mit kleinen Unterschieden bei HDR usw. bietet._Cassini_ schrieb:Vor allem hat sich Adaptive Sync durchgesetzt, weil es offen für alle ist und nicht wie Gsync zwingend eine nVidia Karte benötigt (so wie DLSS auch).
Eine offene Technologie setzt sich auch nur dann durch, wenn sie brauchbar ist.
Erstens die niedrigere Qualität und zweitens muss AMD ihre Technologie nicht verbessern._Cassini_ schrieb:Wo schadet es jetzt genau dir als Kunden, wenn DLSS nicht integriert ist?
Man tritt also auf der Stelle und man hat den Eindruck, es wird sich bei FSR keine Mühe gegeben, wenn kein DLSS integriert ist. Siehe Jedi:Survivior und Resident Evil.
Ja, weil XeSS die Qualität von FSR häufig übertrifft. Intel macht seine Hausaufgaben._Cassini_ schrieb:Schaden alle Entwickler die DLSS nicht implementieren dem Kunden? Heißt das, wenn XeSS nicht integriert ist, schadet das auch dem Kunden?
Von denen erwarte ich eher eine Lösung als von AMD.
Fallout 76 erschien im Oktober 2018.Iscaran schrieb:BEIDE habe nur inoffiziellen FSR/DLSS support (also KEIN support seitens Game Entwickler)
Wenig verwunderlich, die Spielereleases sind lange her. Solange TAA integriert ist, ist der Aufwand laut AMD für FSR geringfügig.Iscaran schrieb:Mit anderen Worten bis heute gibt es KEINE Spiele mit Creation Engine welche überhaupt FSR ODER DLSS ODER BEIDES OFFIZIELL supporten.
Ja, diese Spiele sind uralt. Das gleiche Muster wie bei Age of Empires 1, das hat auch weder DLSS noch FSR.Iscaran schrieb:Fallout 76 => kein FSR/DLSS
Fallout 4 => Kein FSR/DLSS (nur inoffiziell)
Black Prophecy => kein FSR/DLSS
Catherine => kein FSR/DLSS
Divinity 2 => kein FSR/DLSS
Ragnarok Online 2: Legend of the Second => kein FSR/DLSS
RIFT => kein FSR/DLSS
The Elder Scrolls V: Skyrim => kein FSR/DLSS (nur inoffiziell)
Ich meine da ein gewisses Muster zu erkennen, das aber weder mit AMD noch mit nVidia zu tun hat...
Zuletzt bearbeitet:
GrooveXT
Commander
- Registriert
- Jan. 2007
- Beiträge
- 2.451
Meine Firma? Das wäre geil. Aber dann wäre ich hier nicht im Forum unterwegs. Was hätte ich also davon?Kommando schrieb:Äh doch. Du willst halt nur deine Firma verteidigen.
Mir gehts aber tierisch auf die Nerven das den Leuten immer mehr das Leseverständnis abhanden kommt und sie lieber rumbashen als das Problem richtig zu erfassen.
Das Problem was hier diskutieren ist nicht, dass jemand eine proprietäre Technologie entwickelt hat und einem Konkurrenten keine Zugang gewehrt, sondern schlicht das man sich gegenseitig nicht beeinflussende Technologien absichtlich ausschließt.
Das macht Nvidia als Firma nicht besser, genauso wenig gewisse Praktiken die sie anwenden und wenn AMD einfach mal State-of-the-art GPUs bringen würde, wäre ich auch sofort bereit zu wechseln. Aber das ist ein anderes Thema, genau wie Physix, Hairworks und G-Sync.
Es geht Euch doch bei DLSS um die Performance, oder? Ich kann etwas weglassen oder etwas hinzufügen. Der Unterschied ist nur, FSR läuft auch auf Nvidia-Karten. PhysX lief NUR auf Nvidia-Karten und war die EINZIGE Physikengine.Schlumpfbert schrieb:Und jetzt erklärst du uns noch, wie genau Nvidia dadurch die Implementierung einer Technologie eines Konkurrenten verboten hat.
Abgesehen davon weiß noch keiner, wie gut FSR in dem Spiel funktioniert.
Es gibt eine News, die nicht mal bestätigt ist, und alle Nvidia-User rotieren auf höchsten Drehzahlen.
Cunhell
T
Tuxgamer12
Gast
Jetzt wird es richtig abenteuerlich. Also:7hyrael schrieb:Kann aber auch hier sein, dass AMD gar nichts dazu sagen darf aus NDA Gründen.
Spielehersteller sollen AMD mit NDA verpflichtet haben nicht zu sagen, dass sie nicht sagen dürfen, dass sie mit den Spieleentwicklern keine Vereinbarung getroffen haben, DLSS nicht zu implementieren.
H
HierGibtsNichts
Gast
Das fehlen von DLSS macht Starfield oder andere Spiele weder besser noch schlechter spieletechnisch, gleiches gilt für FSR.
Und trotz diesem Aufreger in der Techbubble wird Starfield gekauft werden so wie jedes COD immer und immer wieder gekauft wird.
Und trotz diesem Aufreger in der Techbubble wird Starfield gekauft werden so wie jedes COD immer und immer wieder gekauft wird.
Leute...AdaptiveSync existiert schon 2009 im eDP. Erst mit DP 1.2a haben sie es für externe Monitore freigegeben. Es ist eigentlich umgekehrt: Freesync und Gsync Compatible basieren auf AdaptiveSync, haben aber zusätzliche Anforderungen.Bachi82 schrieb:Das war ein Alleingang. Völlig richtig. Es dauerte aber Jahre bis die Konkurrenz nachgezogen ist, bzw. eine halbwegs gleichwertige Lösung anbot.
Und 2014 hat Nvidia noch das gesagt zu AdaptiveSync: "Although there is no license fee or royalty for VESA's DisplayPort 1.2a specification, as with any technology, there is a cost to develop, implement, and bring products to market. NVIDIA is supportive of industry standards, but not every standard succeeds in the market place. We take a pragmatic approach and support what matters to our customers."
Sie haben gehofft das G-Sync sich durchsetzt, aber der Consumer sagte: zu teuer! Also musse nachträglich G-Sync Compatible implementiert werden.
Und bedenkt wie alt AdaptiveSync ist: Erst im 2022 wurde eine Zertifizierung für Displays eingeführt und in Mai 2023 mit Version 1.1 noch strenger ausgelegt.
Zuletzt bearbeitet:
GrooveXT
Commander
- Registriert
- Jan. 2007
- Beiträge
- 2.451
Nein, PhysiX lief auch ganz normal auf jeder CPU. Wenn man aber richtig Feuer haben wollte, musste das ganze hardwarebeschleunigt werden, zuerst durch extra Beschleunigerkarten und dann durch GeForce Karten. Die Optimierung für CPUs waren zugegebenermaßen etwas fragwürdig, funktioniert hat es trotzdem. Und es gab andere Physik-Engines, die waren aber auf der CPU auch nicht viel besser und boten dafür gar keine Hardwarebeschleugiung.cunhell schrieb:Der Unterschied ist nur, FSR läuft auch auf Nvidia-Karten. PhysX lief NUR auf Nvidia-Karten und war die EINZIGE Physikengine.
Stell dir also vor, es hätte damals eine AMD beschleunigte Physik-Engine gegeben und man hätte in einem Spiel sowohl AMD FysX und Nvidia PhysiX einbauen können und Nvidia hätte dann gesagt, nein wenn wir im Boot sind, gibts keine AMD FysX - genau dann und nur dann hätte man die gleiche Situation. Nur so war es nicht.
Edit:
Einen Vorgang um PhysiX gab es dann doch der entfernt zu der aktuellen Situation passt. Nämlich sind die Leute damals dazu übergangen kleine GeForce Karten neben ihren ATI/AMD-Karten als PhysiX-Beschleuniger zu verbauen. Das hat Nvidia dann per Treiber unterbunden und verhindert das PhysiX beschleunigt wurde, wenn anderen Grafikkarten im System waren. Zumindest war das mal ne Zeit lang so, es gab da auch viel Protest, weiß gar nicht mehr was daraus geworden ist.
Zuletzt bearbeitet: