News Nvidia-Grafikchips: Ampere, Turing und Pascal im Fokus der Gerüchte

ZeroZerp schrieb:
Den Hunderter schiebe ich Dir gerne noch zu.
ZeroZerp schrieb:
Woher weiss ich nur, dass er nicht zu seinem Wort stehen wird...

Dann bist du ja jetzt am Zug. Echt nett von dir, dass du das übernommen hast.
Ich warte übrigens immer noch auf die zahlreichen Antworten auf meine Fragen sowie die Beweise für deine Falschbehauptungen hier im Thread. Falls die dir unbekannt sind, habe diese inzwischen locker 3x wiederholt. Deine Aussage Nvidia entwickelt offene Technologien für alle Gamer (welche dann Sony und Microsoft bei den neuen Konsolen verwenden, Nvidia sei da angeblich Pionier und auf deren Technik angewiesen) und PC sei Lead-Plattform für Gaming ist natürlich besonders schwer zu belegen... vielleicht schafft das google?
Ich könnte hier endlos deine peinlichen Nachrichten aufzählen... noch viel mehr würde mich interessieren warum ich mir die 10 oder 20 GB Nvidia für mindestens 500 Euro kaufen sollte und wo sind nochmal die entwickelten Technologien am PC und die Lead-Plattform? Bitte nach wie vor um Aufzählung dieser!

@Iscaran
Das war einfach ein Witz und der Zug ist abgefahren, da helfen auch keine Leute die das hier noch verteidigen und sogar ernsthaft meinen das wäre für alle Gamer eine Entwicklung gewesen. Ist die ernsthafte Aussage derer Leute oder das PC Lead-Plattform ist, etc... kannst dich an den Fachmann zirp zirp wenden, der meint bei mir Falschaussagen gefunden zu haben (wollte nur vom Thema und der peinlichen Wahrheit ablenken) ich warte immer noch auf die Antworten auf meine Fragen zu den Nvidia Karten um die es hier eigentlich geht vs die neue Konsolen-Technik. Ach upps... hab vergessen PC ist doch Lead-Plattform? Dann müssten mir doch Konsolen egal sein? Hm... ob ich das alles googlen sollte wie zirp zirp?
 
ZeroZerp schrieb:
Woher weiss ich nur, dass er nicht zu seinem Wort stehen wird...
Ich glaube das geht nicht, ohne dass ich mich vor der Auflösung auf die Wette einlasse. Schade eigentlich. Aber danke

Wenn ich aber durch deine Liste mit PhysX Spielen gucke sind die vollen GPU PhysX laut der Seite nur bei 46 Spielen aktiv. 43 davon gibt es. Bei Nvidia sind es glaube ich 44 auf der Liste. Die Stimmen also sogar überein.
 
  • Gefällt mir
Reaktionen: .Sentinel.
@Iscaran
Das hat historische Hintergründe. Der Umgang mit PhysX hat sich verändert. Die CPUs sind so leistungsfähig geworden, dass es ab einem gewissen Punkt einfach keinen Sinn mehr ergeben hat, die aufwändigere und nicht sonderlich effektive GPU- Version zu nutzen.
Zudem- Wieso Software auf GPU Nutzung anpassen, wenn die großen Engines sowieso schon PhysX als Standard CPU- Getriebene Physikengine nutzen?

Die dedizierten FF- Einheiten für RT, wie man sie jetzt überall verbaut, wird meines Erachtens möglicherweise irgendwann das gleiche Schicksal ereilen.
Irgendwann sind die Compute- Einheiten so schnell bzw. eine Alternativtechnik für das BVH Traversal oder den Aufbau der accelleration structure gefunden, so dass die RT- Cores wahrscheinlich darin aufgehen können.

Geht ja eh schon länger alles in Richtung stochastisches rendern...

usb2_2 schrieb:
Ich glaube das geht nicht, ohne dass ich mich vor der Auflösung auf die Wette einlasse. Schade eigentlich. Aber danke
Ich hab Dir ja die Auflösung dazu mitgeschickt. Er hat nen 100er gewettet, dass ich von Havok zum ersten Mal gehört hätte, ich hab Dir ein Zitat aus dem Forum gesandt, wo ich das aber vorher zum Thema gemacht habe.

Gratulation- Du hast 100€ gewonnen.

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: USB-Kabeljau
ZeroZerp schrieb:
Die CPUs sind so leistungsfähig geworden, dass es ab einem gewissen Punkt einfach keinen Sinn mehr ergeben hat, die aufwändigere und nicht sonderlich effektive GPU- Version zu nutzen.

Quelle für deine witzige Behauptung? CPUs sind für diese Art Berechnungen gar nicht geeignet, da viel zu langsam und daher auf GPU parallelisiert, sonst wäre es gar nicht dafür entwickelt worden. Ist auch (wieder mal) völlig egal, du redest über andere Themen und machst auch noch doppelt falsche Aussagen! OMG
Fakt ist einfach, es spielt bei Gaming und Konsolen keine Rolle mehr, egal was Nvidia da macht und die nutzen auch nicht deren Technologien wie du behauptet hast.
Die CPU Cores auf der Current Gen sind auch stark ausgelastet und nicht hoch getaktet, die Leistung ist am absoluten Limit, da kannst du kein PhysX darauf zusätzlich berechnen lassen, das weiß man sogar wenn man vielleicht wie du keine Ahnung hat... eigentlich...
Du hast bis jetzt auch keinen Nachweis geliefert welche Technologien Microsoft und Sony in den Next-Gen von Nvidia in "Pionierarbeit" erbracht wurden verwendet werden.... Weder für A, noch für B hast du Beweise, Argumente oder was auch immer...

ZeroZerp schrieb:
Die dedizierten FF- Einheiten für RT, wie man sie jetzt überall verbaut, wird meines Erachtens möglicherweise irgendwann das gleiche Schicksal ereilen.

Es spricht ein echter Experte. Hat diese Nvidia doch erst eingeführt und keiner weiß welche Anpassungen im Detail die Konsolen haben werden. Wird sich wohl mit RDNA2 entscheiden, denn es kommt in Konsole und PC für den Massenmarkt. Doch nicht Nvidia? Hm... wieder deine Argumente gegen dich selbst gefahren...


ZeroZerp schrieb:
Ich hab Dir ja die Auflösung dazu mitgeschickt. Er hat nen 100er gewettet, dass ich von Havok zum ersten Mal gehört hätte, ich hab Dir ein Zitat aus dem Forum gesandt, wo ich das aber vorher zum Thema gemacht habe.

Gratulation- Du hast 100€ gewonnen.

Und wenn du des lesens mächtig wärst (vor allem was du selbst schreibst) dann wüsstest du, dass du geschrieben hast das du das übernehmen wirst und du sowieso nicht denkst das ich das bezahle.
Also egal wie ich darüber denke oder ob ich es gemacht hätte, du solltest jetzt dein Wort einhalten und Ihm die 100 Euro auf jeden Fall bezahlen, sonst stehst du als Lügner da.
Bin jedenfalls sehr überrascht, dass du das ohne meine Antwort abzuwarten bereits geschrieben hast!

Übrigens, ich verweise nochmals auf die konkreten Sachverhalte des Threads und deine Fail-Leistungen, zudem war deine Aussage zu Havok falsch. Man muss es leider immer dazu sagen....
 
Zuletzt bearbeitet:
professor1 schrieb:
Und wenn du des lesens mächtig wärst (vor allem was du selbst schreibst) dann wüsstest du, dass du geschrieben hast das du das übernehmen wirst und du sowieso nicht denkst das ich das bezahle.
Du hast mit USB2_2 um 100€ gewettet, dass ich das ersta Mal durch Dich von Havok gehört hätte.

professor1 schrieb:
Der kannte Havok gar nicht bis ich es erwähnte, wette ich dir 100 Euro drauf.

Daraufhin habe ich geschrieben, dass ich ihm Deinen 100er gerne zuschiebe:
Den Hunderter schiebe ich Dir gerne noch zu.

Kannst ja berichten, ob Du den 100er bekommen hast, oder ob das ein weiteres Mal "heiße Luft" war.

und liefere im Anschluss den Beweis, dass Du die 100€ zahlen musst. Mit meinem Zitat von Havok in einem vorhergehenden Post. Ich könnte Havok nicht zitieren, wenn ich es nicht kennen würde.

Also fang jetzt nicht schon wieder an hier einen Eiertanz aufzuführen. Wettschulden sind Ehrenschulden.

Da gibt es auch nichts misszuverstehen. Die Kausalkette ist klar ersichtlich.
 
Chismon schrieb:
Tja, die 35(+) Spiele sind ungefähr genauso glaubwürdig wie die damaligen Ankündigungen von nVidia CEO Huang zur Turing Präsentation, die sich größtenteils als Windei entpuppt haben.
Wieso sollten sie unglaubwürdig sein? Bis jetzt hat jede Ankündigung bis auf Assetto Corsa, die den Support offiziell auf Eis gelegt haben, auch geliefert... zudem kündigt ja nicht nvidia den Support von RTRT an, sondern die Entwickler.

Welche der Ankündigungen von Huang sind den größtenteils Windeier? Und ja- Leider muss ich in diesem Punkt GANZ genau auf die Aussagen bestehen, die Du von ihm nicht bestätigt siehst. Inklusive Quellen.

Wieso Du so ungefiltert dieses Marketing-Geblubber übernimmst, kann ich nicht nachvollziehen, denn damit werden Deine Aussagen eher weniger valide bis ansatzweise unglaubwürdig?
Weil aller Unkenrufen zum Trotz, bis jetzt die Mehrzahl dieses Marketing-Geblubbers in Form von Spielbarer Software und damit als Beweis inzwischen existiert.

Er mag sich zwar geirrt haben, was Anfangs die Anzahl an Titel anbelangt, aber die Technik liefert wie versprochen.

Die wenigen Titel in denen tatsächlich RTX dann in Form von RT-Raytracing und meinetwegen DLSS untergekommen sind, haben das oft auch nicht zum Marktstart bekommen, wie Battlefield V, Shadow of the Tomb Raider, etc. und an einigen wird immer noch munter herum gebastelt bzw. die Kundschaft hingehalten, siehe MechWarrior 5.
Es hat niemand behauptet, dass es nicht ein Zusatzaufwand wäre, RTRT in einem sich in Entwicklung befindlichen Spiel im Nachhinein anzuflanschen. Insofern ist es völlig verständlich, dass Hersteller, die auch ohne nachträglichen Zusatzjob ein Spiel releasen erst einmal sehen, dass das Hauptprodukt auch ohne Sahnehäubchen für alle Spielbar ist und für den Publisher die Zeitvorgaben nicht reisst.

Ergo, ist das alles andere als vorbildlich gelaufen bisher im Falle von den RTX-Features.
Ja- Die Informationspolitik war gerade zum Anfang bescheiden. Wenn man sich nicht aktiv selbst informiert hat, war nicht klar, wann was wie kommt.

Dass Besserung womöglich auch durch die andere DXR-Umsetzung von AMD bei deren GPUs (somit im PC und Next-Gen Konsolenbereich) wahrscheinlich ist (weil es sich dann erst zunehmend etablieren dürfte und dann auch lohnender für Entwickler ist), die Hoffnung habe ich auch,
Dass diese Hoffnung nicht unbegründet ist, zeigen erstens die großen Invests, die die großen Spieleengines in Sachen RT tätigen und vorantreiben und zweitens der sich durch die Bank sowieso schon stattfindende Wandel in Richtung stochastischem Renderings. Heute kommt doch keine Produktion ohne vorberechnete oder zumoindest RT- ähnlche Verfahren aus.
Dass die Marschrichtung der Grafik als Evolutionsstufe schon immer in Richtung RT strebt, ist ja jetzt auch kein Geheimnis, da diese Art zu rendern einfach und akkurat ist und (wenn die Instalationsbasis, die Performance und der Preis irgendwann stimmt) im Design deutlch weniger Ressourcen benötigt.

Durch RTRT lassen sich viele vorher grafisch unlösbare oder nur schlecht lösbare "Probleme" in sehr effizienter Art und Weise lösen.

aber ich würde den Mund mit werbewirksamen Vorhersagen bzw. nicht wirklich glaubwürdigeren Ankündigungen wie den o.g. (mit Rückblick auf bisher/dahingehend "geleistetes" trotz vollmundiger Versprechungen) nicht zu voll nehmen.
Muss man ja auch nicht. Es ist auch kein Geheimnis, dass man den großen Marketing- Aussagen auf den Bühnen dieser Welt kritisch gegenüber stehen sollte.
So hat nvidia im Gegensatz zu seinen RTRT Ankündigungen in Sachen Implementation von DLSS seine anfänglich genannten Zusagen nicht eingehalten.
Einige früh angekündigten Titel haben den Support bis jetzt nicht erhalten und ich bezweifle, aufgrund des Alters der Titel, dass da noch was nachkommt.

Wenn ich mir die ersten Implementationen von DLSS so ansehe, dann muss man diesbezüglich aber auch nicht sonderlich traurig sein.

Es bezweifelt ja auch keiner, dass der Start von RT schlecht verlief. Es war klar, dass bei der ersten Implementation von RT bei Battlefield 5 eben keiner das Readme der Umsetzung durchlesen würde und die Performance der RT- Vorschau als endgültiges Erlebnis nimmt.
Naiver geht es nicht mehr. Gerade beim ersten Titel hätte RT einigermaßen sitzen müssen. Stattdessen releasen sie eine Preview mit Fehlern.... Es war so abzusehen, dass diese Version als einzig Verfügbare als Referenz wird herhalten müssen....

Ob fertig oder nicht. Und einen ersten Eindruck macht man halt nur einmal.

Das Vulkan-Konsortium hinkt wie üblich der Microsoft-Umsetzung von RT-Raytracing meilenweit hinterher, was wenig verwundert (so löblich es auch ist, dass eine DXR Alternative ausserhalb Windows10 winkt)
Dass Vulkan so gut wie immer hinterherhinkt, wenn es um das Unterstützen neuer Hardwarefeatures geht, ist keine Neuigkeit und nicht RT- bezogen.

und somit ist es mindestens genauso Microsofts wie nVidias Verdienst von RT-Raytracing in der Handvoll Spiele aktuell, die alleinig mit RTX von nVidia gross beworben werden?
Mit was sollten sie denn sonst beworben werden? Mit RX von AMD?

Hier gibt es ab 7:20 eine Analyse, warum dem wohl so ist:

Meines Erachtens ist die aktuelle Entwicklung hin zu RT-Raytracing (in Spielen) zuvorderst Microsoft und eben nicht nVidia zu verdanken - sonst gäbe es auch nur eine proprietäre nVidia-Lösung und kein unter Windows 10 quelloffenes DXR zu welchem alle großen GPU-Entwickler (Intel, nVidia und AMD/RTG) Zugang haben
Und welche Entwickler der Welt hat Lust und Geld für irgendetwas Proprietäres eines Herstellers zu entwickeln?

welches den Kern darstellt und eben nicht nVidias nachträgliche RTX-Umsetzung auf Basis von DXR.
Die Volta Architektur war die Voraussetzung und Entwicklungsplattform für DXR. Wieso sollte Microsoft eine API für irgendwas entwickeln, was auf Jahrzehnte hinweg nicht nutzbar sein wird, betrachtet man die Geschwindigkeitsentwicklung von GPUs der letzten Jahre? Das ergibt doch alles keinen Sinn.

Dieses bitte einmal im Hinterkopf bewahren, bevor hier wieder unreflektiert Lobesgesänge auf nVidias RTX Umsetzung abgestimmt werden von einigen ;).
Es sollten als manhnendes Beispiel ALLE diese Diskussionen im Hinterkopf behalten, die wir hier führen.
Spätestens in 5 Jahren wird man den Kopf schütteln, wenn man sich das durchliest, was teilweise hier vom Stapel gelassen wird (nicht von Dir Chismon - Eine gewisse Skepsis ist verständlich).

Und nein- Raytracing ist bis dahin nicht untergegangen und wurde eingemottet und man lacht nicht über RTX als Wegbereiter von RT, sondern misst dem ganzen den Stellenwert ein, den die Rendertechnik eben auch verdient hat.
Es werden (wie immer bei solchen Einführungen) auch diejenigen, die am lautesten geschimpft haben, wie selbstverständlich nutzen. Und keiner wird die Option ausstellen, damit er statt 150 FPS dann hässliche 300 FPS in seinen Spielen hat (falls einem die Entwickler die Option des Ausstellens überhaupt noch liefern).

Und hier geht es auch nicht um den hier im Forum liebevoll gehegten Markenfetischismus, wie er schon wieder mit aller Gewalt in die Posts gezwungen wird, sondern es geht um die RTRT Technik und da wurden gerade wichtige Schritte gemacht und die Grundlagen geschaffen.
Wer das nicht neidlos und neutral anerkennen kann, hat halt einfach den Schuss nicht gehört...

Überlegene Technik setzt sich durch.

LG
Zero
 
Zuletzt bearbeitet:
Bei auf Geizhals 578 verfügbaren FreeSync- und 73 verfügbaren GSync-Monitoren kann man nicht von einer Durchsetzung von GSync sprechen.
GSync ist die wesentliche bessere wenn aber auch teure Luxus-Umsetzung der variablen Synchronisierung.
Das wird GSync auch bleiben, ich hoffe trotzdem die Technologie bleibt uns erhalten.
Ich verwende sie seit 3 Jahren und es hält was es verspricht.

Aus diesem Grund und das Karten mit neuem Fertigungsprozess technologisch immer gut da standen ist eine 3080 oder 3080 Ti schon gekauft.
 
  • Gefällt mir
Reaktionen: McTheRipper, USB-Kabeljau und OZZHI
Eine neue grake kommt erst wieder ins Haus wenn aktuelle Spiele problemlos mit 4k und über 60fps laufen... Solange bleibt meine RTX 2080 weiterhin im WQHD im Einsatz
 
Das wird, mit allen Details, noch Jahre dauern. Es kann nicht die selbe Entwicklung stattfinden wie von 640x480 auf 800x600 zu 1024x768 zu 4k. Die nötige Rechenkraft nimmt nicht linear zu, je größer die Auflösung, desto länger wird es dauern, bis die nötige Rechenkraft vorhanden ist. Da sich parallel auch noch die Grafik weiter entwickelt (RT zuletzt) und sich die nötige Rechenkraft dadurch auch bei gleicher Auflösung erhöht. Daher sind solche Aussagen ziemlicher Unsinn, du wirst dir mit hoher Wahrscheinlichkeit eine neue KArte holen, bis 4k problemlos und immer mit über 60 FPS läuft, denn das wird noch Jahre dauern.
 
professor1 schrieb:
Findest du Nvidia ist ein Samariter und hat etwas für alle Gamer geleistet? Ist das ernsthaft deine Meinung? Zockst du überhaupt Games auf verschiedenen Plattformen?
Alter ... jetzt komm doch bitte mal von deinem Hass-Trip runter.

Niemand hier hat das behauptet.
Es hat auch niemand behauptet, daß andere Firmen wie AMD nicht auch neue Technologien etabliert hätten.
Und es hat auch niemand behauptet, daß PhysX relevanter als Havok sei.

Erst stellst du eine selten dämliche und zu 100% falsche Behauptung auf.
Und dann kommen von dir 10 verschiedene Strohmänner, an denen man sich dann abarbeiten soll.
Ich werde hier keine Punkte verteidigen, die nicht die meinen sind, die du aber versuchst mir (und anderen) in den Mund zu legen als vermeintliche Gegenargumente zu deinem unfassbar ignoranten Geschichtsrevisionismus.

NVidia hat sehr viele neue Technologien in's Rennen gebracht.
Und auch heute aktuell werden noch viele ihrer Technologien benutzt ... unter anderem sind sie der große Faktor dafür, daß sich nun Raytracing mit Hardware-Beschleunigung etablieren wird.

Deshalb war dein diese Diskussion auslösender Post, den ich gleich noch mal zitieren werde, auch so unglaublich neben der Spur.
Sieh das doch einfach ein und geh uns nicht weiter auf die Nerven.
Kann nur jedem empfehlen, nicht auf die Strohmänner und Nebelkerzen weiter einzugehen. Das nimmt hier sonst keine Ende mehr. Ihr müsst keine Punkte verteidigen, die ihr gar nicht gemacht habt. Vor allem nicht, wenn sie von einem Troll kommen, der mit so einer Aussage provoziert:
professor1 schrieb:
Nvidia verliert immer mehr den Anschluss im Bezug auf Gaming und neue Technologien.
 
  • Gefällt mir
Reaktionen: Oneplusfan, milliardo und .Sentinel.
USB-Kabeljau schrieb:
Naja. Vor den RTX Karten wurden die Preise durch Mining aufgebläht. Mit den RTX Karten blieben sie dann auf diesem Niveau. Ohne RT hätte NVidia die vielleicht günstiger angeboten ... vielleicht hätten sie sich aber auch einfach nur ne fettere Marge gegönnt.

Derzeit haben die RTX-Karten im Vergleich mit den anderen Karten kein auffällig schlechtes P/L-Verhältnis, wenn man bedenkt, daß das P/L-Verhältnis eh schlechter wird, je weiter man in's High End geht.
Insgesamt stehen die sogar überraschend gut dar.

Deshalb hatte ich beim Kauf überhaupt nicht das Gefühl, für RT drauf zu zahlen.
Ich sehe das eher als Feature, das quasi kostenlos mit dabei war. Ist ja nicht so, als ob man in der Leistungsklasse günstigere Karten ohne bekäme. Auch von AMD nicht.

Stimmt halt beides nicht.
Es findet hier tatsächlich RT statt. Nur daß eben außer dieser Quake-Version noch kein Spiel ausschließlich damit läuft.
Und "deutlich billiger" geht das ganz sicher nicht. Die speziell darauf zugeschneiderte Hardware kann sowas deutlich effizienter berechnen als eine allgemeine CPU/GPU.
Ergänzung ()

Genau die selbe wie für eine GTX 960, wenn du die Settings so wählst, daß du am Ende auf 60fps kommst.

Diese "Raytracing braucht kein Mensch", und "bringt eh nix weil extrem unperformant" Beiträge kommen zu weiten Teilen doch eh von den AMD Leuten hier.

Das kannste eh nicht Ernst nehmen......

Sobald das in den neuen AMD Karten implementiert ist, finden die das alle geil, weil "Jetzt setzt sich das durch", und "AMD hat alles richtig gemacht zu warten bis RT in Spielen weiter verbreitet ist".....

Fakt ist, die Auswahl an RT Spielen ist in der Tat klein. Und der Performance Hit ist heftig. So ist das nun mal.

Dennoch ist die Technologie grandios, die Hater haben einfach keine Ahnung, sitzen da mit ihren Polaris und Navi Karten und finden alles Scheiße was "die Grünen" da machen.

In Metro Exodus, Control. Wolfenstein und auch BF5 mittlerweile ist das ein echter Mehrwert, und funktioniert auch was Performance angeht mittlerweile "okay".

Mit meiner 2080 und auch 2070S ist das ganze in WQHD kein Problem. Ich persönlich brauche nicht immer 60 FPS+.

Viele von denen kennen RT doch nur aus Bildern ihrer PCGH Heftchen oder Youtube.

Raytracing gehört die Zukunft ! Das Potential ist irre, erst Recht wenn die New Gen. Konsolen raus sind, wird das ganze beschleunigt Fahrt aufnehmen.

Die ganzen Hater sollten Nvidia lieber danken, denn sie waren es die das ganze am PC nun angestoßen haben, sozusagen "zum Leben erweckt", wenn auch nicht erfunden.

Nvidia hat die Entwicklung immerhin voran getrieben, wie immer zwischen 1-2 Generationen vor AMD.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Skysurfa, .Sentinel. und USB-Kabeljau
RT ist absolut notwendig um sowas wie CGI auch nur annährend auf den PC zu bringen in Echtzeit. Ohne physikalisch genaue Berechnung des Licht wird es niemals eine überzeugende künstliche Welt in den Details geben.

Das neue Technologien, egal ob von AMD oder Nvidia, anfänglich von wenig Spielen unterstützt wurden ist doch völlig normal. Ohne die HArdware gibts den Effekt nicht in Spielen. Da diese aber nicht alle schlagartig zeitgleich mit der HArdware kommen und die Entwicklung von Games inzwischen teils Jahre dauert, sollte rein der Logik nach klar sein, dass zunächst erstmal wenig Titel vorhanden sind mit der neuen Technologie. Das fing schon bei Wechsel von 2D auf 3D Grafik an...
 
  • Gefällt mir
Reaktionen: Skysurfa und .Sentinel.
CrustiCroc schrieb:
Diese "Raytracing braucht kein Mensch", und "bringt eh nix weil extrem unperformant" Beiträge kommen zu weiten Teilen doch eh von den AMD Leuten hier.

Das kannste eh nicht Ernst nehmen......

Sobald das in den neuen AMD Karten implementiert ist, finden die das alle geil, weil "Jetzt setzt sich das durch", und "AMD hat alles richtig gemacht zu warten bis RT in Spielen weiter verbreitet ist".....

Fakt ist, die Auswahl an RT Spielen ist in der Tat klein. Und der Performance Hit ist heftig. So ist das nun mal.

die Hater haben einfach keine Ahnung, sitzen da mit ihren Polaris und Navi Karten und finden alles Scheiße was "die Grünen" da machen.

In Metro Exodus, Control. Wolfenstein und auch BF5 mittlerweile ist das ein echter Mehrwert, und funktioniert auch was Performance angeht mittlerweile "okay".

Mit meiner 2080 und auch 2070S ist das ganze in WQHD kein Problem. Ich persönlich brauche nicht immer 60 FPS+.

Hey,
ich bin zb jemand der RT noch sehr kritisch sieht. Dabei rede ich nicht mal von der Technik selbst, aber von dem was da an Aufschlag (RTX war ja das Argument beim Release) verlangt wird und dann dennoch die fps 30-50% runter gehen. ja neue Technologie etc, für mich zählt aber was ich an Geld investiere und was nachher raus kommt. So haben mich die ganzen Papierfeatures von AMDs VII auch nicht interessiert, sonder nur das was geliefert wurde.

Genauso bin ich jemand der mit 60fps nichts anfangen kann. Da fühlt sich für mich die Maus schon total indirekt an.

Dann ist für mich den RTX impact zu gering. Gerade Metro empfand ich als absolutes Negativbeispiel, kaum visueller zugewinn (Schatten sind mir nicht so wichtig, solange sie halbwegs realistisch wirken), aber massiver FPS Verlust (30-50%, getestet mit einer 2080ti). Das sich das in Zukunft ändert, ja auf jeden Fall. Aber stand heute ist RTX für mich eine Techdemo zum erhöhten Vollpreis

Wodrauf ich hinaus möchte: nicht alle RTX Kritiker sind Nvidia hasser und AMD User und nicht alle Kritiker kritisieren die Technik, sondern die derzeitige Umsetzung;)

Ich gebe dir aber Recht, dass viele einfach auf den RTX ist quatsch Zug aufspringen, ohne sich damit befasst zu haben.
Die 2080ti ist übrigens meine erste ausgelassene Ti ;)
 
  • Gefällt mir
Reaktionen: .Sentinel., v_ossi und CrustiCroc
Du siehst keinen nennenswerten Unterschied bei MEtro mit RT on/off? Oo Echt nicht? Wie unterschiedlich die Wahrnehmungen doch sind.
 
  • Gefällt mir
Reaktionen: .Sentinel., CrustiCroc und GERmaximus
@Mustis
Tatsächlich nicht, also im regulärem Spielfluss. Wir haben Gar Screenshots gemacht und die verglichen. Mit der "Lupe" gesucht. Da waren dann die RTX Bilder generell etwas dunkler, ja.

Wir saßen zu zweit (Kumpel hat die 2080ti) vor der Kiste und haben ständig RTX on / off umgestellt.
Wir waren beide (da in BF5 zum Teil deutlich sichtbar) schon etwas angefixt was uns da nun optisch entgegenspringt
Wir haben es wirklich nur an der zähen Maus erkannt.
Für mich war das Bild einfach etwas dunkler und zäh in der Steuerung, mehr nicht.

RTX on off Metro

Für mich einfach nur stellenweise etwas dunkler, dafür aber 30-50% weniger FPS.
Für Andere (die mehr auf Licht und Schattem achten) ein Immersionsgewinn.

Dennoch verstehe ich nicht wie man diese Technik verteufeln kann. Kann RTX so wie es ist auch noch nichts abgewinnen, dennoch bleibe ich der Technik offen gegenüber!
 
  • Gefällt mir
Reaktionen: v_ossi
Man sieht doch aber in dem Video sofort die unterschiedlichen Schatten und Beleuchtungen bei dieser kneipen Szene. ohne RTX wirft der Stiernacken kaum einen Schatten auf die Frau, mit RTX ist der Schatten da wo man ihn in der Realität auch erwartet würde und vorallem passt er sich fließend korrekt der Bewegung des Typen und der Frau an.
 
GERmaximus schrieb:
Gerade Metro empfand ich als absolutes Negativbeispiel, kaum visueller zugewinn (Schatten sind mir nicht so wichtig, solange sie halbwegs realistisch wirken), aber massiver FPS Verlust (30-50%, getestet mit einer 2080ti).
Das kommt auf die Szene an.
In einigen Szenen ist es ein Unterschied wie Tag und Nacht. Die Beleuchtungsqualität gab es so vorher nicht in Spielen.
Finde leider das Video nicht mehr, das ich dazu mal gesehen hatte.
 
  • Gefällt mir
Reaktionen: GERmaximus
@Mustis
Ja man sieht sofort einen Unterschied, da bin ich bei dir.
Jedoch kann ich im Spielfluss nicht feststellen welcher Schatten da realistischer bzw. falsch ist.
Die künstlichen Schatten sind so gute "gefaked" das ich das nicht erkenne.
Für meinen Immersionsanspruch sind die Schatten auch ohne RTX gut, so gut das es mir wie gesagt nicht auffällt.

Auf Standbildern, wenn ich drauf achte, ja da erkenne ich das machne Schattierungen wohlmöglich nicht ganz richtig sind

Anbei mal was ich meine:
rtx off.JPG
Ich habe mal die Schatten die mir auffallen und mir realität suggerieren, markiert.
Und hier das RT Bild, für mich einfach nur dunkler, bzw. mehr dunkle Stellen, aber weder besser noch (für mich) realistischer.
RTX on.JPG

Ergänzung ()

USB-Kabeljau schrieb:
Das kommt auf die Szene an.
In einigen Szenen ist es ein Unterschied wie Tag und Nacht.

Das ist mir immer dann Aufgefallen, wenn die gesamte Umgebung (im Fenster BF5 zb) gespiegelt wird. Oder auf dem Mamorboden, da habe ich wirklich einen WOW Effekt gehabt. Jedoch war BF5 Aufgrund seiner Hektik das falsche Game dafür.

Metro habe ich leider nur angespielt (im Zug an der Oberfläche).
 
Zuletzt bearbeitet:
Gut, das mag mancher eher ein Auge für haben als andere. Mir fällt sowas offensichtlich erheblicher leichter bzw. erkenne ich das deutlich auch in Bewegung.
 
GERmaximus schrieb:
@Mustis
Tatsächlich nicht, also im regulärem Spielfluss. Wir haben Gar Screenshots gemacht und die verglichen. Mit der "Lupe" gesucht. Da waren dann die RTX Bilder generell etwas dunkler, ja.

Wir saßen zu zweit (Kumpel hat die 2080ti) vor der Kiste und haben ständig RTX on / off umgestellt.
Wir waren beide (da in BF5 zum Teil deutlich sichtbar) schon etwas angefixt was uns da nun optisch entgegenspringt
Wir haben es wirklich nur an der zähen Maus erkannt.
Für mich war das Bild einfach etwas dunkler und zäh in der Steuerung, mehr nicht.

RTX on off Metro

Für mich einfach nur stellenweise etwas dunkler, dafür aber 30-50% weniger FPS.
Für Andere (die mehr auf Licht und Schattem achten) ein Immersionsgewinn.

Dennoch verstehe ich nicht wie man diese Technik verteufeln kann. Kann RTX so wie es ist auch noch nichts abgewinnen, dennoch bleibe ich der Technik offen gegenüber!
Du kannst Stand Bilder NIE mit dem echten "Am Monitor Erlebnis" vergleichen, das ist unmöglich.
Jedem, der bei mir zum ersten mal RT in Metro "Live" sieht, sagt nur : Wow !

So unterschiedlich sind halt die Wahrnehmungen.
 
Zurück
Oben