Selanius schrieb:
Stimmt, es war nicht Hisn, sondern Chismon, dem du den ganzen Post "übersetzt" hast. Da beide für mich mit zu den besten Postern gehören, die ich bisher hier lesen durfte, hab ich das halt verwechselt. Mein Fehler.
Du hast offenbar den zum Himmel schreienden Sarkasmus und die Intention des Posts nicht verstanden.
Sinn des Ganzen war zu zeigen, dass man seine Posts auch nett und vernünftig und ohne Bashing verfassen kann und das dem ganzen auch noch viel mehr Argumentationskraft verleiht. Nur weil man im einem Internetforum unterwegs ist, heisst das noch lange nicht, dass man seine sozialen Kompetenzen vor dem Posten vergisst.
Und warum gehören diese für Dich zu den "besten Postern"? Weil sie das schreiben, was Du hören willst?
Der Schreibstil und die Ausführung können es ja, wenn man den Ursprungspost von ihm beobachtet wohl nicht sein...
Und zu dem Rest, wie wärs mal an der eigenen Nase packen und deine subjektive Meinung und dein missionieren für nVidia einfach weg lassen.
Meine Subjektive Meinung stelle ich auch als diese dar. Fakten stelle ich auch als diese dar. Das hat mit Missionieren nichts zu tun.
Ich kann Stimmungsmache und Shitstorms nicht ausstehen, weil diese meist einer vernünftigen Grundlage entbeeren und viel zu oft die Meinung einer kleinen aber lauten Minderheit durchdrücken sollen.
Und dieser Trend wird aber immer weiter in die Foren getragen und zerstört die Diskussionskultur.
Zudem kann inzwischen ja fast kein Hersteller mehr irgendjemandem was zu 100% recht machen.
Du willst allen ernstes über die technischen Dinge reden, ganz objektiv und ohne dich verarschen zu lassen? Ja dann fang damit bitte mal selber an und münze nicht die angeblichen Möglichkeiten die ja DLSS und/oder RT bieten als schon vorhandener Fakt.
Siehst Du- Und genau das ist typisch an der Diskussionskultur hier. Auf Angriff gehen, Behauptungen aufstellen und dann wieder NICHTS liefern.
Welche Möglichkeiten von DLSS und/oder RT sind den faktisch nicht vorhanden?
Ich bitte um Beispiele.
Bestes Beispiel ist nämlich immer wenn du sagst: Ja die RTX Karten sind ja von der Leistung bis zu 10 mal schneller, wenn erst einmal alles optimiert und genutzt wird.
Dann BELEGE Deine Behauptungen endlich mal, dass dem nicht so ist.
Ich liefere Vergleichsvideos, Benchmarks, erkläre die Möglichkeiten, wie jeder die Performance selbst testen kann, ob die versprochene Mehrleistung abrufbar ist, verlinke Downloadlinks zu Demos etc.
Ähm ja und wann soll das sein? 2025, wenn dann die neueste RTX Karten Generation draußen ist?
Nein- Das ist JETZT. Es gibt Spiele, die die Funktionen nutzen, in der Unreal Engine ist die Technik inzwischen nutzbar und für meine Renderings und Shaderspielereien funktioniert das alles so wie es soll.
Nur weil DU nichts damit anfangen kannst, weil Du kein Sinnvolles Einsatzszenario für Dich findest, heisst das noch lange nicht, dass die Karten nicht liefern.
Ich bin der letzte der den Leuten eine RTX Karte andrehen will.
Ich betone in jedem Thread gefühlte 1000x, dass die Karte ein spezielles Zielpublikum anspricht und dass sich der Rest diese Hardware um Gottes Willen nicht kaufen soll.
Das wird aber immer bei Seite gewischt, weil sowas nicht ins Schubladendenken und zum Fanboy- Stempel passt, den mir hier einige immer wieder versuchen aufzudrücken.
Es wird hier im Forum so viel ungerechtfertigter Mist verbreitet (weil weder logisch noch belegbar), dass es immer weiter ins Toxische abwandert.
Dem Trend sollte jeder, dem das Forum am Herzen liegt, mit aller Kraft sofort das Wasser abgraben, indem er entsprechend handelnde Mitdiskutanten auf argumentativer Basis "stellt".
Auch dein kleiner Thread wo du ja nur über die Technik hinter RT reden willst. Ein reiner Werbethread für nVidia und deren RTX Karten.
Wenn Du mal das Brett vor Deinem Kopf und Deinen Bias etwas runterfahren würdest, dann würdest Du merken, dass das ein neutral gehaltener Thread ist, der sich vornehmlich um die Technologien und Möglichkeiten dreht.
Da wird immer nur von dir gepostet wie toll doch alles ist und was es alles schon für hübsche Videos vorhanden sind.
Das Potenzial und die zukünftigen Einsatzszenarien inkl. derer Vorteile werden diskutiert.
Nenne mir nur einen einzigen Nachteil der neu zur Verfügung stehenden Technologie.
Aber am Ende wird da nicht wirklich über die Technik diskutiert, sondern nur deine subjektive Ansicht noch einmal gesondert hervorgehoben.
Es ist jeder eingeladen sich den Thread anzusehen und sich selbst ein Urteil zu bilden.
Fakt ist, das RT bis jetzt in noch immer nur 1 Spiel vorhanden ist und mit Metro kommt nach 6 Monaten wo RT offeziell vorgestellt ist erst das zweite Spiel.
Fakt ist, dass Du aus Deiner Sicht nicht begreifen willst, dass andere die Features schon voll nutzen. Nicht nur für Spiele.
Und dass bereits jetzt -trotz der Preise- Leute Spaß mit der Karte haben, die Kaufentscheidung bewusst getroffen haben und sich nicht von NVIDIA über den Tisch gezogen fühlen.
Fakt ist auch, dass sich der Rest, der mit diesen Karten nichts anfangen kann, oder ein sonstiges negatives Gefühl hat, sich diese blos nicht kaufen soll, wenn ihm die Preis/Leistung der Rasterisierung nicht passt.
Fakt ist ebenso, das RT eine enormer Leistungsfresser ist und eben nicht der wie von dir so oft propagierte Heilsbringer.
Erzähl was Neues? RT kostet Leistung- Echt jetzt?
Begründe mal Deine Meinung, warum die Technik, die in allen photorealistischen CGI Szenen zum Einsatz kommt, nicht der Heilsbringer im Grafikbereich sein soll? Scheinen in den Grafik- Departments offenbar alle Idioten zu sein, die sich von Dir belehren lassen müssen, dass sie endlich begreifen, welchem Nepp sie schon seit Jahren aufsitzen.
Und yeah wow Hardware Unboxed hat Spiele getestet in 1440p, die nicht über 6GB VRAM Verbrauchen und/oder Games, die eben auch noch smooth laufen wenn nur 6GB vorhanden sind (also dahingehend ein vernünftiges Speichermanagment aufweisen).
Dann hättest Du Dir das Video vielleicht mal ansehen sollen.
Hättest Du Dir das Video angesehen, wüsstest Du, dass da der Beweis für unterschiedliche RAM- Allokation nach VRAM Größe und dem nicht stattfindenen Impact bei einem "anscheinenden" Speicherüberlauf der 2060 auf die Spieleperformance geführt wird.
Und dann nenne mir bitte endlich die hier propagierte Vielzahl an Spielen, die in 1080P bei der 2060 schwächeln und die den Kauf dieser Karte schwerwiegend in Frage stellen.
Und ja- Wir wissen bereits, dass die 2060 bei Battlefield unter DX12 und RT on schwächelt, weil dann die Speicherlast in die Höhe schiesst.
Dann schau Dir mal dieses Video an - Dann kannst Du Dir ja selbst mal ein Bild davon machen, welche Allokationsfehler BF5 in Speicherbegrenzten Szenarien betreibt:
12,4GB RTX Titan gegen 16,7GB (2080TI) Verbrauch obwohl die Titan ERHEBLICH mehr Speicher zur Verfügung stellen könnte? Der Speicherverbrauch der TI ist 4GB!! höher trotz gleicher Settings?
Und dieses EINE Spiel mit einem offensichtlich fehlerhaften VRAM- Reservierungs-/Nutzungssystem und schwacher DX12 Implementation nimmt man hier als Referenz, dass bei Nutzung der 2060 RTX in MEHREREN Spielen bereits jetzt die Details runtergedreht werden müssen?
Meine Meinung ändert sich dadurch nicht. Ich finde es weiterhin nicht richtig, dass nVidia die Karte dadurch künstlich limitiert einfach nur 6GB VRAM drauf zu bauen.
Wie hätten Sie denn sonst segmentieren/downgraden sollen, dass sie der 2070 nicht zu nahe kommt. Erkläre es mir.
Das ist unabhängig davon, dass Du natürlich für Dich jederzeit festlegen kannst, dass Du es nicht richtig findest, dass der Speicher begrenzt wurde.
Klar ist das für diejenigen, die für günstig Geld eine Karte haben wollen, die wie der von mir verlinkte Test zeigt derzeit auch noch in 4K eine passable Figur macht, schade.
Das Schnäppchen wäre dann eben ein noch deutlich größeres Schnäppchen gewesen.
Und jeder der die Karte kaufen wird, wird je nach Spiel dann halt einfach Probleme kriegen, sofern nicht bestimmte Details verringert werden. Und das eben schon in 1080p.
Und genau das wird in JEDEM Test widerlegt, dass das zu "Problemen" führt und hier zum wiederholten Male trotzdem noch von Dir konstatiert. Du kriegst durch einen Settings- Wahn und schlechte Programmierung jede Grafikkarte klein.
Sogar die neu erschienenen Grafikbretter wie Anthem hängen bei um die 3,5GB VRAM Nutzung rum (1440P) und das Spiel hat ja nun wirklich alles andere als schrottige Texturen.
Und das bei einer NEUEN Grafikkarte, die für eben genau diese 1080p beworben wird und wo man erwarten kann in dieser Auflösung mit den Reglern auf Max zu gehen.
Wer gibt denn das vor, was man von einer MIDRANGE- Grafikkarte erwarten kann?
Und ja- Derzeit kann man diesbezüglich alles auf Ultra stellen.
Es war noch nie in der ganzen Geschichte der Computerspiele bzw. der Grafikkarten so, dass Dir irgendjemand eine Garantie beim Kauf egal welcher Grafikkarte gegeben hätte, dass Du 5 Jahre lang alle Spiele auf Ultra spielen können wirst.
Aber jeder wie er will, wer sich zu jeder GPU Generation bei nVidia zur kassen bitten lässt (weil man ja ein vermeintliches Schnäppchen gekauft hat), der möge dies bitte machen.
Genau- Gerade derjenige, der sich so eine vermeintlich überteuerte Grafikkarte zulegen will wird gerade aus dem Preisargument heraus doppelt überprüfen, ob es das ist, wass er will.
Lg
Zero