• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Cyberpunk 2077 Patch 1.2 im Test: Raytracing auf AMD Radeon RX kostet bis zu 75 Prozent FPS

vander schrieb:
Und wieder ist der Sentinel ziemlich ungelenk ausgewichen. Ich zitiere mal deinen Link.
Der ganze Eiertanz, den Du hier aufführst kann nicht davon ablenken, dass Du offenbar aus dem Blick verloren hast, in welcher Sache Du eingestiegen bist:

.Sentinel. schrieb:
Seid doch eher froh, dass mit RTRT eine Technik einzug hält, die eine fast unbegrenzte Skalierung sowohl in der Qualität als auch Rendergeschwindigkeit liefert.

Irgendwas ist zu langsam? -> Kein Problem. Zusätzliche Karte zur alten rein und schon wird es schneller.
Immernoch zu langsam? -> Kein Problem. Zwei oder drei Karten rein.
Immernoch zu langsam? -> Kein Problem. Einfach mehrere günstige GPUs auf eine Karte quetschen und sie skalieren super.

und Du kamst mit einem:
vander schrieb:
Steile These, angesichts der aktuellen Hardwarepreise/Verfügbarkeit. Ganz davon ab, das es auch praktisch nicht funktioniert. Kurz gesagt, ein Theoretiker.

Allein das einleitende Schein- Argument tut bezüglich des Themas überhaupt nichts zur Sache, womit Du Dich quasi mit Satz eins schon Disqualifizierst, indem Du auf das allgemeine Rumgeheule und den Circle- Jerk ob der miesen Verfügbarkeiten einsteigst. Völlig Off- Topic. Was sollte das denn belegen, was meiner Ausführung widerspricht?

Und zweitens drehst und wendest Du das Thema im Anschluss mit einem Rückzugsgefecht in immer neue Richtungen, die letztendlich zum Schluss heissen (weil Du bis jetzt auf Deine zweite Behauptung hin "da es auch praktisch nicht funktioniert" bis jetzt nichts lieferst):

vander schrieb:
das war aber nicht das Thema, du hast was von Karten geschrieben und es geht hier um RTX bzw. DXR.
Du definierst hier das Thema für Dich nun um, da Du merkst, dass das Eis auf dem Du stehst immer dünner wird. Noch dazu wirfst Du hier Begrifflichkeiten durcheinander.

vander schrieb:
Wie man einfach in deinem Link lesen kann, wird mitnichten per RT-API (RTX/DXR) berechnet, der OctaneRenderer nutzt lediglich GPGPU/CUDA um seine Berechnungen zu beschleunigen.

Dann erklär mir mal GENAU, was an einer Engine, die Du zum Zwecke eines Multi- GPU- Realtime Path- Tracens erstellst, nicht möglich sein soll.

Was genau an den Chiplet- oder MCM Designs nicht möglich ist, die in der Praxis für die Zukunft von so ziemlich allen Firmen angeboten werden und warum diese gerade RTRT nicht beschleunigen können werden. Du behauptest ja, dass das praktisch überhaupt nicht funktioniert.

Und jetzt weich nicht länger aus und werde konkret. Es wird langsam langweilig und schweift immer weiter vom Thema ab.

Übrigens (hättest ja mal wenigstens 2 Sekunden googeln können):
OctaneRender 2019 first look - optimized support for NVIDIA RTX Ray Tracing, Vulkan, DXR, CUDA and Metal iOS/Mac OS backends built on OTOY’s cross-platform RNDR framework.
...und sollte nur als Beispiel dienen, dass Du Raytraced Szenen eben mit Kernen, Karten oder was auch immer bewerfen kannst und es wird immer schneller dadurch.

Die Scanline- Verfahren durch SLI waren alleine schon durch Methodiken wie render to texture zum Tode verurteilt. Das hast Du beim Tile- based Ansatz in RT nicht, in welchen Du Einheiten an fast bliebig kleinen Chunks knabbern lässt.

Der Vorteil ist, dass Du im Master- Thread sogar Chunks, die nicht innerhalb des vorgegebenen Zeitfensters fertigberechnet sind, trotzdem in das Target schieben kannst. Dann sieht halt ein winziger bereich nicht 100% rauschfrei aus, wenn der Denoiser das nicht packt.

Aber im gegensatz zur Rasterisierung hast Du durch RTRT eben auch deutlich bessere und vielfältigere Möglichkeiten eine Zielframezahl anzusteuern bei weniger Gesamt- Qualitätsdegradierung als es z.B. eine variable Auflösungsanpassung auslösen kann.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Onkel Föhn
In Anbetracht des massiven Leistungsverlust, der Raytracing-Leistung von RDNA 2 in anderen Spielen (selbst im Vergleichzu Control) und dem allgemeinen Zustand von Cyberpunk 2077 liegt jedoch die Vermutung nahe, dass CD Project die neue Technologie für die Radeon-Grafikkarten bis dato nur halbherzig umgesetzt hat.

hmmm ein Game mit Nvidia Logo und welche wohl auch Gameworks nutzt und dann schlecht für die Konkurenz optimiert ist - das ist doch Standard.
Ist ja genauso wie bei PhysX, wo Nvidia die Gegner so behindert, das die ihre Berechnungen auf der CPU ausführen müssen mit alten langsamen SSE Befehlen.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
deady1000 schrieb:
Jetzt wird ein Schuh draus.
Ich bin hier halt mit meiner Position im falschen Forum. ^^
Genau was ich sage. CB+HWUB=AMD, PCGH+Rest_der_Welt=NV.

Wenn das deine exklusive Meinung schlussendlich ist, dann 🤷‍♂️
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Sebbi schrieb:
...
Ist ja genauso wie bei PhysX, wo Nvidia die Gegner so behindert, das die ihre Berechnungen auf der CPU ausführen müssen mit alten langsamen SSE Befehlen.
Jedoch Glücklicherweise nicht so dreist, die gesamte Technik Vendor- zu- locken, wie bei einem der letzten "AMD- Sponsored" Titel geschehen.

https://www.reddit.com/r/nvidia/comments/jwtpwo/godfall_developer_locks_out_raytracing_on_nvidia/

Hört doch bitte mit diesem "mein Hersteller ist besser als Deiner und heilig- Schmarrn vornehmlich auf Seiten AMD" auf.

Man kann NVIDIA nicht mögen, aber dann bitte nicht immer als Begründung diese ewig einseitigen Anschuldigungen nehmen, die faktisch dazu auch oftmals noch falsch sind.

Da eignet sich ein "wegen dem Geforce- Partner- Programm, der Preipolitik, der Marktmacht oder Ähnliches" z.B. tausend Mal besser.

Gameworks läuft seit Ewigkeiten bei den Karten der Konkurrenz genauso schnell.
Teils gibt es Titel "sponsored bei NVIDIA", die sogar auf den AMD Systemen schneller liefen (z.B. Fallout 4 nach Integration der Gameworks- Effekte)...

Weniger Krieg stiften.... Mehr Frieden... :)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Onkel Föhn
Die neuen Karten von NVidia und AMD sind nun nicht nur zu absurden Mondpreisen kaum erhältlich sondern taugen auch in aktuellen AAA Titeln in Sachen FPS mit RT einfach nichts. Dann kann man sie ja getrost den Minern überlassen, ist ja auch die eigentliche Zielgruppe momentan. Wer jetzt noch solche Preise zahlt hat die Kontrolle über seine FPS verloren. 2021 back to 640x480.
 
PogoPogo schrieb:
Die neuen Karten von NVidia und AMD sind nun nicht nur zu absurden Mondpreisen kaum erhältlich sondern taugen auch in aktuellen AAA Titeln in Sachen FPS mit RT einfach nichts. Dann kann man sie ja getrost den Minern überlassen, ist ja auch die eigentliche Zielgruppe momentan. Wer jetzt noch solche Preise zahlt hat die Kontrolle über seine FPS verloren. 2021 back to 640x480.
Und? Was sollen wir jetzt mit dem Beitrag anfangen?
Ja- Wir haben derzeit eine Knappheit, die länger anhalten wird. ->Check. Ich denke das haben inzwischen alle kapiert.

Deswegen sind die Marktpreise, wenn man nicht gerade direkt beim Hersteller zum UVP kaufen kann nicht sonderlich attraktiv. Wo sind die Neuigkeiten?

Dann behauptest Du, dass sie in aktuellen AAA Titeln in Sachen FPS und RT nichts taugen.
Dann solltest Du aber schon Deinen Bewertungsmaßstab mal offenlegen. Sonst ist diese Aussage absolut inhaltslos.

Müssen es 1080P mit 60FPS sein, WQHD 60FPS, UHD 60FPS oder gar mehr, dass Du irgendwas als tauglich einstufst? Was ist in Deinen Augen AAA?
Wieso nimmst Du eine Generalbewertung vor, wenn es sich hier aber offensichtlich um Deinen eigenen Dunstkreis geht über den Deine Bewertung stattfindet, die Du noch nicht mal offenlegst?

Und wenn irgendwas nicht Deinen Ansprüchen genügt, sollen alle anderen gefälligst auch drauf verzichten und das Feld den Minern überlassen?

Und wer die Preise zahlt, die ihm selbst als angemessen erscheinen, hat die Kontrolle über seine FPS verloren?

Aha.... Denkst Du nicht, dass das die Leute selbst entscheiden sollten, was ihnen angemessen scheint?
Langsam wirds wieder unterirdisch.
 
  • Gefällt mir
Reaktionen: squadric
.Sentinel. schrieb:
Anhang anzeigen 1062069

???

Hört doch endlich mit diesem Mist auf, wo es um ein par Prozent Rasterleistung hin- oder her geht, wenn anderweitig hunderte Prozent Unterschied im Raum stehen können...

Und das sind doch die einzigen Unterscheidungsmerkmale, die diese Generationen an Grafikkarten und der konkurrierenden Firmen haben:
VRAM, RT Cores, Tensor- Cores, Software- Framework

Es wird langsam wirklich albern... Für die Rasterisierung ist völlig egal zu welchem klassengleichen Produkt welcher Firma auch immer greift. Die nehmen sich nix.
Und schon wieder wurde sich der Test rausgesucht damit alles passt...
Ich höre jetzt auf zu diskutieren mit Nvidia Fanboys hats keinen Zweck.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
deady1000 schrieb:
Stimmt nicht mehr, auch wenn's im Test steht.
Resizable Bar bringt 5,9% auf der RTX3080 in Cyberpunk und ist seit gestern, bereits vor dem Test, verfügbar.

CB-Benchmark:
RX 6800 XT @ RT Aus
103,5 FPS
RTX 3080 @ RT Aus
98,2 * 1,059 = 104 FPS

Somit ist es jetzt wohl eher:
RT Aus, 3080 100,5%
RT Aus, 6800XT 100,0%

Nur damit wir es genau haben und nicht wieder falsche Fakten im Raum stehen. ;)
Die Karten sind ohne RT und ohne DLSS jetzt exakt gleich schnell unter gleichen Bedingungen.
Vorher war SAM/RBAR nur bei den RX-Karten aktiv. Jetzt haben es beide.
So so, Du betitelst nVidia Benches also als "Fakten" ?!?
LangSAM aber sicher wirst Du mir unheimlich ... :verwandlung:
Und das schreibt "Deine" PCGH Seite !

MfG Föhn.
 

Anhänge

  • green Glases.jpg
    green Glases.jpg
    385,3 KB · Aufrufe: 291
Zuletzt bearbeitet von einem Moderator:
Ich finde so oder so das Benchmark‘s den realen Bedingungen nicht wiederspiegeln habe es selbst schon erlebt das manche Games auf der 3080 besser laufen als auf eine 6900xt und manche auf einer 6900xt besser als auf einer 3090. und rt möchte ich auch nicht missen vor allem die Spiegelungen in Control oder in CP 2077. jeder hat da so seine Vorlieben ich persönlich war nur etwas angefressen das es bei Turing nur 2-3 Rt Titel gab die ich auch gespielt hab leider hab ich mit der 3080 das Problem das ich schon heute nachladeruckler hab in WQHD aber nicht immer und bei Amd das sie so Probleme mit Dx11 haben. mein Fazit ist beide Hersteller haben ihre vor und Nachteile aber jeweils sehr Gute Gpu‘s
 
fritz ost schrieb:
Also für mich wirklich nicht die Welt und im Spielgeschehen nicht auszumachen. Packt für 6GB zusätzliche Texturen und Objekte darauf, dann sieht man wirklich einen Unterschied. Es ist ja nicht so als gäbe es ohne RT keine Effekte und die wurden seit Jahren immer gut, zumindest im Vergleich zur restlichen Grafik umgesetzt. Detailreichtum und FPS zählt für mich mehr als Effekte, wo ich während dem Spielen danach suchen muss damit sie mir auffallen. Just my 5 cents. :)
Vorallem wird mit RT einfach nur alles dunkel, damit das Licht besser auffällt :D
 
  • Gefällt mir
Reaktionen: fritz ost
Fighter1993 schrieb:
Und schon wieder wurde sich der Test rausgesucht damit alles passt...
Ich höre jetzt auf zu diskutieren mit Nvidia Fanboys hats keinen Zweck.
Das ist doch das, was ich damit die ganze Zeit ausdrücken will. Jeder kann sich so lange Titel herauspicken, bis das Ergebnis so passt, wie er es meint!

Und das gilt hier im Thread sowohl für die AMD als auch NVIDIA- Fraktion. Die Unterschiede sind nunmal beim Rastern zu gering bzw. nicht diskussionswürdig bzw. einzelne Titel können das Ergebnis schon signifikant in die eine oder andere Richtung bewegen. Und das ganz neutral, objektiv, nachweisbar.

Es ist doch wirklich nicht so schwer:
http://www.3dcenter.org/artikel/lau.../launch-analyse-amd-radeon-rx-6700-xt-seite-2

...und jetzt kommen halt noch ein par % (meiner Meinung nach auch nicht der Rede Wert) im Schnitt durch RBAR bei NVIDIA dazu (die Ausreißer nach unten werden die mit Blacklisting natürlich für RBAR künftig noch sperren, wie bei AMD auch - das ist ja schon bekannt).

Was bringt Euch die Erbsenzählerei außer seitenlange, nicht zu irgendeinem Ziel führende Diskussionen?
 
Und hinzu kommt, entgegen anderer Meinung hier von paar Leuten, darf und sollte man bei AMD SAM genauso mit einfließen lassen wir bei Nvidia DLSS. Manche sagen ja, SAM gilt nicht, aber sobald RT zur Sprache kommt heißt es mindestens 10x DLSS in einem Beitrag (zurecht, wenn auch 1x langen würde). Es sind beides Features die da sind, also darf man beide mit einfließen lassen. AMD hat Fidelity FX Super Resolution als Konkurrenten zu DLSS verpennt, Nvidia bis gestern rBAR. Verstehe nicht warum manche SAM immer außen vor lassen wollen (es ist ja ein RX 6000 Feature), DLSS aber nicht....
 
deady1000 schrieb:
Stimmt nicht. 😂
Außer bei CB ist es nicht mal ein Gleichstand.

RTX3090 ist schneller als RX6900XT.
RTX3080 ist schneller als RX6800XT und RX6800.
RTX3070 ist schneller als RX6700XT.
RTX3060Ti so schnell wie RX6700XT.

[IMG]https://www.computerbase.de/forum/attachments/1617215473529-png.1062038/[/IMG]
Des Weiteren hat man auch noch andere Vorteile abseits von RayTracing, wie DLSS2.0, NVENC(!!), NvidiaBroadcast/RTXVoice(!), CUDA und weitere Funktionen in GeForceExperience, die alle zum Gesamtpaket dazugehören.

What? Du verlinkst einen anderen Test und sagst "stimmt nicht", obwohl die AMD Karten bei CB schneller sind.Wenn du CB nicht glaubst, dann geh doch auf eine andere Testseite. ODER beschäftige dich mit den Gründen und nicht mit Balken. 😂
Eine Karte kann nicht in jedem Test gleich schnell sein, weil jede Seite ein anderes Testsetup nutzt, andere Spiele mit unterschiedlichen Settings usw.
Es gibt also immer Differenzen! Das macht das eine Ergebnis nicht "Falsch".
https://www.computerbase.de/artikel...#diagramm-performancerating-avg-fps-1920-1080
Hier siehst du eindeutig, dass die AMD Karten schneller sind. Und zwar im Schnitt aller hier getesteten Spiele!
Weiter unten siehst du die RT Rangliste wo Nvidia schneller ist und dennoch hat auch Nvidia im RT keine überragende Performance. Es ist eine Spielerei für meinen Geschmack. Da muss jeder für sich Prioritäten setzen.

Auch dieses stumpfe aufgeliste von Features einer GPU verstehe ich nicht. Das ist typisches Fanboy geblubber wie man es schon vor 10 Jahren kannte. ^^
Oben im Link siehst du auch einen Featurevergleich unten als Tabelle und ich sehe da auch AMD Features die bei Nvidia fehlen. Im Schnitt sieht man doch, dass man mit beiden Karten nahezu alles machen kann...
Was willst du mir damit sagen? Auch AMD hat dutzende Features.....und was macht die Nvidia Karte dadurch jetzt so viel besser? Es muss doch jeder für sich entscheiden, was er nutzt und was nicht. Die Features die du da auflistet nutze ich praktisch nicht. Raytracing ist für mich kein Vorteil, weil ich es gar nicht nutze und nicht nutzen wollen würde. DLSS würde ich auch nicht nutzen, weil die Bildqualität verschlechtert wird, wenn auch nur geringfügig. Ich mag sowas nicht und AMD wird dieses Jahr FSR als DLSS Alternative ins Rennen schicken. Zwar ohne KI aber es soll trotzdem laufen und nutzen würde ich es dennoch nicht. Was soll ich mit NVENC? Ich streame nicht und brauche keinen Encoder. Auch hier hat AMD eine Funktion. Nämlich VCE. Wer nutzt es den aber? Bei Nvidia nutzen die Leute Shadowplay und bei AMD Relive und beides funktioniert problemlos. Sehe da keine Vorteile. NVENC oder VCE nutzt man z.B. bei OBS, aber wie gesagt. Die allermeisten Leute greifen auf Shadowplay oder ReLive zurück, von daher. Und bei NVENC und VCE sagt der eine AMD sieht besser aus, der andere Nvidia. Guck dir mal Vergleichvideos an. Nvidia Broadcast? Wozu brauche ich das?
Auch wieder eine Streaming Funktion, die doch der Großteil gar nicht nutzt. Und dafür gibt es auch genug Drittanbieter Software. Das ist jetzt nichts exklusives...selbst bei MS Teams kannst du Dinge wie Hintergründe anpassen. Im AMD Treiber gibt es außerdem bereits genügend Streaming Features. Auch RTX Voice....was soll der Müll? Kauf dir ein ordentliches Mikrofon mit Noice Cancelling dann brauchst du sowas nicht. Ich hatte noch nie Probleme mit Hintergrundgeräuschen. Und einfach mal CUDA in den Raum werfen? Weißt du eigentlich was CUDA ist? Ich kenne viele Leute die bewusst auf OpenCL setzen, weil dieser Standard offen ist. Hat alles Vor und Nachteile. Ja Geforce Experience und was glaubst du was alles im AMD Treiber drin ist? Auch eine ganze Menge (Teilweise mehr als im Nvidia Treiber, weil AMD kein separates Tool wie Experience benötigt und alles im Haupttreiber integriert ist) und das alles als Gesamtpaket mit einer deutlich moderneren und bernutzerfreundlicheren Oberfläche.

Ich bin kein Fan vom stumpfen aufzählen von Features, was der eine hat, was der andere nicht hat.
Meistens sind nur die Namen der Features exklusiv.... und ein Großteil der Leute nutzt es sowieso nicht.
Ich kaufe eine GPU um zu zocken und das mit möglichst hoher Leistung. Das wars.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Fighter1993
@.Sentinel.
Man kann sich auch wirklich alles schön reden. PC Gaming stagniert in FHD vor sich hin und die aktuelle Knappheit hat das ganze ins absurdum geführt. 60FPS in 4k mit RT sollten bei Karten mit einer UVP ab 700€ zum Standard bei aktuellen Spielen gehören. Ansonsten steige ich wieder auf meinen C64 um und zocke Elevator Action.
Ich vertrete auch nur meine Meinung, mir also egal ob dir das nicht passt.
 
Fighter1993 schrieb:
Ich höre jetzt auf zu diskutieren mit Nvidia Fanboys hats keinen Zweck.
"Mäh, da sind Leute, die Gegenargumente bringen, wie doof sind die denn, geht zurück in eurer Forum und lasst uns in Ruhe. Bin raus, tschau!" 😂

Ihr müsst euch echt mal ein dickeres Fell zulegen. Ist ja der Hammer wie hier Leute anfangen zu flennen, wenn man ihnen ihren Selbstbeschiss vorhält. Letztendlich ist es ja auch egal was wer sagt oder was in den entsprechenden Cherrypicking-Tests steht. Bringt auch nix wenn zwei Lager sich ihre jeweiligen "Fakten" zusammensuchen. Man könnte halt auch einfach anerkannte Benchmarks von 3DMark zitieren, aber das wäre ja zu einfach. Jeder mit Verstand weiß ja was abgeht und wer ne Ampere-Karte hat und RT/DLSS bereits freudig nutzt, wird über diese Diskussion wohl nur schmunzeln.

Wünsche einen schönen ersten April - war aber kein Scherz.
 
.Sentinel. schrieb:
Der ganze Eiertanz, den Du hier aufführst kann nicht davon ablenken, dass Du offenbar aus dem Blick verloren hast, in welcher Sache Du eingestiegen bist:

Zitat von .Sentinel.:
Seid doch eher froh, dass mit RTRT eine Technik einzug hält, die eine fast unbegrenzte Skalierung sowohl in der Qualität als auch Rendergeschwindigkeit liefert.

Irgendwas ist zu langsam? -> Kein Problem. Zusätzliche Karte zur alten rein und schon wird es schneller.
Immernoch zu langsam? -> Kein Problem. Zwei oder drei Karten rein.
Immernoch zu langsam? -> Kein Problem. Einfach mehrere günstige GPUs auf eine Karte quetschen und sie skalieren super.

und Du kamst mit einem:

Zitat von vander:
Steile These, angesichts der aktuellen Hardwarepreise/Verfügbarkeit. Ganz davon ab, das es auch praktisch nicht funktioniert. Kurz gesagt, ein Theoretiker.

Ich tu einfach mal so als würden wir hier gerade starten. Was meinst DU mit RTRT? Für mich ist das Realtime Raytracing, eingeführt z.B. mit der Unreal Engine, basierend auf DXR. Können andere Engines sicher ebenso.
AFAIK ist es bei DXR nicht möglich MultiGPU zur RT Beschleunigung zu nutzen. Die nVidia Doku spricht lediglich von Viewport Beschleunigung, also kann man mehrere Karten für unterschiedliche Ausgabegeräte einsetzen. NICHT UM DIE GLEICHE SZENE AUF EINEM VIEWPORT ZU BESCHLEUNIGEN.

Selbst wenn es technisch möglich wäre Mutli GPU zu nutzen, derzeit sind die GPUs die DXR Unterstützung bieten (oberhalb 1060 6GB) schlecht verfügbar und abartig teuer. Was ist daran bitte falsch?

Den Rest deines Post lese ich mir vielleicht später noch mal durch, muss grad los. Also schreib doch mal wie du gedenkst DXR mit mehreren Karten zu beschleunigen. Bitte nicht noch ein Beispiel das RT generell mit der Hardware skaliert, das hab ich dir bereits bestätigt. Nur bei DXR geht das AFAIK nicht, also auch nicht bei Spieleengines, das ist der Punkt.
Wenn du dafür ein Gegenbeispiel hast, nur her damit.

 
  • Gefällt mir
Reaktionen: Colindo
deady1000 schrieb:
@Fighter1993 Ja weil CB das hier macht:
RX6900XT-SAM-ON vs RTX3090-Stock
Du findest die Alleinstellungsmerkmale von Nvidia wie DLSS ganz toll und kritisierst gleichzeitig den Vergleich von AMD mit SAM gegen Nvidia ohne SAM weil SAM ein Alleinstellungsmerkmal von AMD war. Wieso sollte man nicht bei Tests die Features verwenden die Out-of-the-Box bei AMD dabei sind? Ist AMD mit SAM schneller als Nvidia haben sie halt Pech gehabt. Hat doch Nvidia niemand verboten, SAM zu verwenden. Hätten sie halt mal mit den CPU/Chipsatzherstellern reden müssen und sagen, wir haben ein tolles Feature, wollt Ihr uns nicht unterstützen. Ich vermute mal ganz stark, dass, selbst wenn AMD abgelehnt hätte, Intel hier nicht nein gesagt hätte. Wäre ja ein Verkaufargument für Intel-CPUs gewesen.
Sorry, wenn Du die includierten Features bei Nvidia hervorhebst musst Du das auch bei AMD machen.
Und sorry, wenn Nvidia von selbst nicht auf den Trichter kommt, dass einzuführen und AMD von dem Feature Vorteile in Benchmarks hat, ist das Nvidias Problem. Die langen DLSS-Balken prangen ja auch immer in den Benchmarks mit dabei.
Anm.: DLSS hätte man z.B. sicher auch offen gestalten können. Aber Nvidia reitet ja lieber die properitäre Schiene. SAM steht dagegen jedem offen und es kann jeder verwenden, wenn er will. Und wer nich will, darf sich halt nicht beklagen, wenn der Balken etwas kürzer ausfällt.

Cunhell
 
  • Gefällt mir
Reaktionen: Malustra und Fighter1993
deady1000 schrieb:
"Mäh, da sind Leute, die Gegenargumente bringen, wie doof sind die denn, geht zurück in eurer Forum und lasst uns in Ruhe. Bin raus, tschau!" 😂

Ihr müsst euch echt mal ein dickeres Fell zulegen. Ist ja der Hammer wie hier Leute anfangen zu flennen, wenn man ihnen ihren Selbstbeschiss vorhält. Letztendlich ist es ja auch egal was wer sagt oder was in den entsprechenden Cherrypicking-Tests steht. Bringt auch nix wenn zwei Lager sich ihre jeweiligen "Fakten" zusammensuchen. Man könnte halt auch einfach anerkannte Benchmarks von 3DMark zitieren, aber das wäre ja zu einfach. Jeder mit Verstand weiß ja was abgeht und wer ne Ampere-Karte hat und RT/DLSS bereits freudig nutzt, wird über diese Diskussion wohl nur schmunzeln.

Wünsche einen schönen ersten April - war aber kein Scherz.
Mit dieser Aussage zitierst du dich selbst... Du bist Nvidia Fanboy durch und durch.
Machst die Leute an und redest alles was nicht Grün ist madig...
Warum soll ich mit dir diskutieren.
 
deady1000 schrieb:
Letztendlich ist es ja auch egal was wer sagt oder was in den entsprechenden Cherrypicking-Tests steht.
Man lerne, Cherrypicking ist es immer nur dann, wenn AMD vorne liegt.

Cunhell
 
  • Gefällt mir
Reaktionen: Malustra, rumpeLson und Fighter1993
.Sentinel. schrieb:
Aber selbst dann sind es doch nur ein par Prozent hin- oder her.

Darum gehts doch in dieser Grafikkartengeneration beider Konkurrenten garnicht.
Vielmehr ist doch die Wette bezüglich der Langlebigkeit/Zukunftsaussichten entweder auf VRAM (AMD auch im Midrange bzw. Low- End Segment) oder RT+DLSS (NVIDIA in allen Segmenten) bzw. AI die wirklich ausschlaggebende Geschichte.....
Genau dieses. Und zusätzlich, man kann es ja leider nicht außen vor lassen, sind die Karten ja auch kaum verfügbar.

Klar ist es auf dem Papier für alle unheimlich unterhaltsam sich über maximal 5% Leistungsungsunterschied ohne Raytracing zwischen 6900 und 3090 zu streiten, nutzt jedoch nichts, wenn man die Straßenpreise betrachtet.

Und hier haben wir letztlich die Wahl zwischen einer 3070 (1100€), einer 3080 (€1900), einer 3090 (2600€) und einer 6900 (1300€). Und unter dem Vergleich dieser Preise und aller relevanten Faktoren ist AMD doch ne absolut valide Option, wenn JETZT eine Neuanschaffung ansteht. Ohne Raytracing irgendwo bei der 3080 und mit meist im Bereich der 3070. Für DLSS wird es, leider erst perspektivisch, eine Alternative geben, auch wenn diese vermutlich etwas schlechter sein wird.

Klar, wenn ich eine RTX 3080 für 700€ kaufen könnte, würde ich die 6900 für 1000€ auch nicht in Betracht ziehen. Aktuell muss man aber, sofern man nicht den Preis für eine 3090 zahlen möchte, irgendein Übel wählen. Und wenn wir die 6900 mit der 3070 vergleichen, ist die Wahl auf einmal weniger einfach.
 
  • Gefällt mir
Reaktionen: fritz ost, Fighter1993 und .Sentinel.
Zurück
Oben