Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsRadeon VII mit Vega 20: Laut AMD RTX-2080-Leistung für 699 USD ab 7. Februar
Auch ist die Wahrscheinlichkeit größer, das du von den Nvidia Treibern hinsichtlich performance/optimierung irgendwann mehr profitierst, als du von "irgendwas" bei den AMD Treibern profitierst.
Das ist Unsinn, wenn man sich mal die bisherigen AMD und nVidia Karten ansieht.
AMD Karten altern immer besser als nVidia und überholen dabei deren nVidia Equivalente um 10 - 15% in der Leistung über deren Lebenszeit, das war schon immer so und nichts weißt auch nur im geringsten darauf hin, dass nVidia das jetzt plötzlich auf die Reihe bekommt.
Im Gegenteil, wenn man sich ältere nVidia Karten und deren Leistung zur Anfangszeit und der mitte der Lebenszeit ansieht und dann mit dem Ende vergleicht, scheinen die bei den gleichen Spielen im Regelfall an Leistung zu verlieren.
Es sei denn du meinst mit "performance/optimierung irgendwann mehr profitierst", dass nVidia freundlicherweise ne überteuerte Karte eine so unglaublich kurze Lebenszeit vorgibt, dass man als Kunde immer weiß, wann man wieder Geld für eine neue Karte ausgeben kann!
Sehr freundlich und zuvorkommend!
Ich sehe es einfach so: beide Karten haben Features die zur Zeit sinnlos sind.
Ich spiele selbst auf WHQD mit 144Hz, für RayTracing würde dann ordentlich FPS aufgeben. Daher für mich persönlich absolut keinen Wert in Spielen wie BFV oder Metro. Spiele wo ich Wert auf Optik lege (sowas wie Assassins Creed) haben von Natur aus schon geringe FPS, für ein paar Pfützen und Reflektionen möchte ich nicht auf 1080p oder mit 30fps spielen.
DLSS haben wir zur Zeit nur Final Fantasy, und das hat jetzt kein "haben will" erzeugt. Der Aha-Effekt blieb bei dem Ergebnis aus, hatte mehr von DLSS erwartet. Wer weiß wie's in Battlefield V aussehen wird, aber im Moment sehe ich null Mehrwert.
Das "in Zukunft kann ein Spiel DLSS/RT"-Spiel können wir mit DirectML und DXR genauso spielen.
Die 16GB VRAM sind für mich als Gamer auch uninteressant, die GPU wird sowieso setzt bevor 16GB Mainstream sind. Aber im Vergleich braucht es ja nur 8GB oder mehr damit der VRAM der Vega ein Vorteil ist. Ist aber das gleiche Spiel, denke nicht das wir 8GB+ allzu schnell sehen. Es sei denn Konsolen werden einen großen Sprung im VRAM machen, steht aber in den Sternen.
Die 80€ die ich mehr bezahle rechtfertige ich selbst mir mit
- FreeSync (da mein Monitor nicht "G-Sync Kompatibel" ist)
- zwei von den Spielen (gegen Anthem bei einer 2080, Demo davon fand ich nicht so toll, persönliche Präferenz)
- unterstütze keine Firma die "Partnerprogramme" und Features (Shadowplay) hinter Zwangslogins verschließt
Finde beide Karten tun sich im großen und ganzem nichts, beide Karten haben "irgendwann ist das ein extremer Vorteil"-Features.
Wenn ich ähnliche Performance für 80€ mit den Vorteilen bekomme kann ich das für mich selbst rechtfertigen.
Wer nur FPS für den niedrigsten Preis will wird mit der billigsten 2080 besser dran sein. Ist auch nichts verkehrt dran.
Was ich meinte war: Nvidia treiber = mehr performance/support in overall games als AMD.
Alles ist nvidia hier und da optimiert, das geht von software wie OBS, 3D Programme wie Cinema4D & Co bis hin zu games. Mit AMD Karten kann (!) das je nach Game mal zum Abenteuer werden. Game kommt raus, Nvidia owner -> starten, zocken, bäääm. AMD owner -> starten, probleme, workaround, warten auf Treiber Update ...
Deswegen bleibt zu hoffen, das die AMD Karte hinsichtlich der overall Performance die Nvidia um hoffentlich mehr als 10% schlägt.
Ansonsten ist das IMHO (!) (achtung IMHO!), wieder mal (!), der typische AMD Fail. Welcher Gamer macht denn bei 700€ Karten irgendwelche "Experimente" (utopische Ausnahmen bestätigen die Regel).
Oder anders:
Stellst du 100 Gamer vor die Wahl "2080 oder vega 7" (beide gleich schnell), greifen 99 zur Nvidia. Eben aus den oben genannten Gründen oder auch nur weil "Bauchgefühl sagt keine Experimente bitte".
Deswegen geht diese AMD Karte (unter der Prämisse das die gleich schnell performt wie 2080) nur über die Ladentheke wenn sie günstiger ist. Denn 99/100 Gamern machen keine Experimente.
Dennoch, die Wahrscheinlichkeit das du von RT & DLSS profitierst ist größer als das du von 16gb HBM² profitieren wirst.
Ebenso ist die Wahrscheinlichkeit größer das du irgendwann mal ein Game besitzt wo RT & DLLS funktionieren würden, du aber dank einer Radeon 7 dies nicht einschalten kannst, als das du bei einem Game aufgrund der 8gb Vram einer Nvidia merkbare negative Auswirkungen spürst.
Auch ist die Wahrscheinlichkeit größer, das du von den Nvidia Treibern hinsichtlich performance/optimierung irgendwann mehr profitierst, als du von "irgendwas" bei den AMD Treibern profitierst.
Drei Punkte bei denen ich komplett gegenteiliger Meinung bin ;-)
- Meine Vega 56 lief schon am Speicherlimit
- Selbst bei kommenden RT Spielen wird wahrscheinlich keine der nvidia Karten noch lange reichen, weil auch die am Speicherende kratzen werden
- Der wechsel zum Radeontreiber nach 3 Jahren nvidia war ein Segen für mich. Visualisierung, einfachheit, Optionen, Streaming, Aufnahme, Wattman (OC/UV) -> Ein Traum
So hat jeder eine Meinung, aber sie anderen Aufdrücken muss man nicht wirklich - oder sehe ich das falsch?
Ich würde nie wieder eine Grafikkarte mit weniger als 8GB Speicher kaufen seit 2019. Wenn ich die Wahl habe zwischen RT+ 8GB und Kein-RT + 16GB HBM2 würde ich sofort die zweite Option wählen. In der nächsten Generation, wenn mehr Spiele mit RT draussen sind sieht es vllt anders aus. Aber Moment??? Vielleicht hat AMD schon RT Karten auf dem Markt dann?
Drei Punkte bei denen ich komplett gegenteiliger Meinung bin ;-)
- Meine Vega 56 lief schon am Speicherlimit
- Selbst bei kommenden RT Spielen wird wahrscheinlich keine der nvidia Karten noch lange reichen, weil auch die am Speicherende kratzen werden
- Der wechsel zum Radeontreiber nach 3 Jahren nvidia war ein Segen für mich. Visualisierung, einfachheit, Optionen, Streaming, Aufnahme, Wattman (OC/UV) -> Ein Traum
So hat jeder eine Meinung, aber sie anderen Aufdrücken muss man nicht wirklich - oder sehe ich das falsch?
Ich würde nie wieder eine Grafikkarte mit weniger als 8GB Speicher kaufen seit 2019. Wenn ich die Wahl habe zwischen RT+ 8GB und Kein-RT + 16GB HBM2 würde ich sofort die zweite Option wählen. In der nächsten Generation, wenn mehr Spiele mit RT draussen sind sieht es vllt anders aus. Aber Moment??? Vielleicht hat AMD schon RT Karten auf dem Markt dann?
Versteh mich nicht falsch, ich drücke das keinem auf.
Das ist O-Ton in der Gaming-Szene so.
Der Kunde wird Nvidia kaufen, dies sind die Gründe.
Du bist wieder die utopische Ausnahme.
100€ mehr ausgeben und ein Experiment wagen - macht keiner.
Das wirst du auch daran sehen, das nicht plötzlich News der Marke "Lieferengpässe bei Radeon 7" auftauchen.
Ich selbst sitze hier auf einer gtx 970 und es wird echt knapp langsam.
Gerne würde ich Team Rot mein Geld geben, wie sicherlich soviele andere auch.
Aber AMD muss hinsichtlich Leistung oder Preis punkten.
Wo lief Vega 56 denn am Speicherlimit? Die 8GB VRAM bekommt man in "Vega 56-Auflösungen" (1080p/1440p) nicht so schnell voll, außer man versucht es halt wirklich.
Bandbreitenlimit mit Sicherheit, aber das bezahlen wir ja jetzt mit Radeon VII teuer mit 16GB VRAM.
Wüsste aber bei meinen letzten Spielen wo ich groß mit den Grafiktreibern Probleme gehabt hätte. Merke zwischen den Updates der Treiber so ziemlich null Unterschiede selbst wenn im Log steht "Optimierungen für Game XYZ". Würde im Gegenteil die AMD Treiber jeder Zeit den von Nvidia vorziehen. Kein Zwangslogin, habe umfangreichere Einstellungen, habe Features wie Chill (funktioniert bei mir verdammt gut).
Dennoch, die Wahrscheinlichkeit das du von RT & DLSS profitierst ist größer als das du von 16gb HBM² profitieren wirst.
Ebenso ist die Wahrscheinlichkeit größer das du irgendwann mal ein Game besitzt wo RT & DLLS funktionieren würden, du aber dank einer Radeon 7 dies nicht einschalten kannst, als das du bei einem Game aufgrund der 8gb Vram einer Nvidia merkbare negative Auswirkungen spürst.
Auch ist die Wahrscheinlichkeit größer, das du von den Nvidia Treibern hinsichtlich performance/optimierung irgendwann mehr profitierst, als du von "irgendwas" bei den AMD Treibern profitierst.
Bin ich das?
Meine Frau hat Intel + nvidia drin gehabt über Jahre
Ich habe Intel + nvidia benutzt
Ich kaufe das, was mir zum Zeitpunkt des Erwerbs die meiste Leistung fürs Geld bringt. Das war bei der jetzigen Generation AMD.
Vega 56 Pulse für 350€ und bei meiner Frau RX 570 8GB für 110€ jeweils neu. Aber ich bin auch einer, der niemals 1000€+ für eine Grafikkarte ausgeben würde.
Und jetzt, da ich den Radeon-Treiber kennengelernt habe und die Leistung mit ein paar Minuten OC+UV kenne, würde ich für den identischen Preis oder minimale Preisdifferenzen eine AMD Karte vorziehen.
Wo lief Vega 56 denn am Speicherlimit? Die 8GB VRAM bekommt man in "Vega 56-Auflösungen" (1080p/1440p) nicht so schnell voll, außer man versucht es halt wirklich.
Ich nehme an du schreibst von Spielen? Da habe ich regelmässig 6GB+ drauf. Ich kaufe mir aber nicht heute eine Grafikkarte um noch genau 6 Monate neue Titel auf höheren Einstellungen spielen zu können sondern 2-3 Jahre. Die Industrie läuft dabei immer schneller und die Anforderungen an die Komponenten ebenfalls. Ich denke in 1-2 Jahren werden genug Titel erscheinen, bei denen 6 bzw. 8 GB knapp oder nicht mehr reicht.
Die Spieleentwickler orientieren sich bei den Minimum Settings am Durchschnitt und niemals an den Hoch/Ultra Settings. Dementsprechend verzerrt sich dieser Abschnitt mit jeder Flagschiff-Karte.
Aber wenn ich rendere o.ä. läuft sie mir innert Minuten voll. Ich nutze parallel eine HP Workstation mit einer Quadro, jedoch kann ich diese nicht länger als eine Nacht rendern lassen.
Ich sprach von Spielen, gucke recht selten bei mir in die VRAM Nutzung aber ich nehme mal nicht an das sich die Zahlen großartig von Hardwareunboxed Test mit der 2070 unterscheidet.
Nur meine Vermutung, wüsste nicht das AMD's Treiber den VRAM merklich voller macht.
Bis auf ein paar Ausreißer scheint der durchschnitt bei 5.5GB und weniger zu liegen. Für mich ist das nicht "Speicherlimitiert". Zumindestens beim 1440p Gaming, Rendern ist ja nochmal ne andere Geschichte wo man das schon merken wird.
Ohne Frage hat man mehr davon wenn die neue Karte mehr als 8GB hat und man vorhat die für ein paar Jahre zu behalten.
Wie stark wird sich wohl am Konsolen-Markt entscheiden, die Spiele-Entwickler werden ja auf die Mainstream-Karten und Konsolen Rücksicht nehmen müssen.
1050ti und 1060 sind recht weit verbreitet, ähnliche Preisregion der aktuellen Generation wäre 1660ti und weniger die auch auch nur 6GB hat. Solange Nvidia den VRAM drückt und die Konsolen weiterhin die 8GB(?) Shared-Memory haben sehe ich 8GB+ in 1440p nicht so schnell.
Aber alles nur Vermutungen, ging mir eher darum das 8GB zur Zeit in 1440p Gaming nicht limitieren.
Soviel zur größeren Wahrscheinlichkeit von RT & DLSS zu profitieren.
Abgesehen davon werden sich die Entwickler von AAA-Titeln kaum an diesem Durchschnitt orientieren.
Piecemaker schrieb:
Dennoch, die Wahrscheinlichkeit das du von RT & DLSS profitierst ist größer als das du von 16gb HBM² profitieren wirst.
Ebenso ist die Wahrscheinlichkeit größer das du irgendwann mal ein Game besitzt wo RT & DLLS funktionieren würden, du aber dank einer Radeon 7 dies nicht einschalten kannst, als das du bei einem Game aufgrund der 8gb Vram einer Nvidia merkbare negative Auswirkungen spürst.
Solange RT & DLSS nicht von Konsolen unterstützt werden, denke ich nicht, dass diese Features breite Unterstützung finden werden, selbst wenn die gängigen Engines diese unterstützen, da sich der zusätzliche Aufwand nicht rechnet (es sei denn, NVIDA bezahlt und/oder stellt Support). Meines Wissens wird AMD auch die Hardware der nächsten Generation stellen, weswegen ich frühestens mit der übernächsten Generation mit RT & DLSS rechnen würde. Dann sind die heutigen Karten aber bereits veraltet.
Wesentlich einfacher wäre es für Entwickler, höher auflösende Texturen bereitzustellen.
Das ist nicht richtig.
In 1-2 Jahren kannst du mit einer z.B. RTX 2080 noch jeden AAA+ Titel auf Very High flüssig spielen. Oder meinst du wirklich das jemand der sich jetzt eine RTX 2080 für 600+ € kauft, in schon 2 Jahren nur noch auf Mittel spielen kann, weil die 8gb Vram nicht mehr reichen? Er bräuchte in 1-2 Jahren also mindestens 11gb Vram um höher als mittel zu spielen oder wie? Absolut utopisch. Das Spiel in dem das so ist, wird wohl eher kein Erfolg, denn das können dann ja nur 1-2% der Gamer überhaupt spielen.
aNi_11 schrieb:
Aber wenn ich rendere o.ä. läuft sie mir innert Minuten voll. Ich nutze parallel eine HP Workstation mit einer Quadro, jedoch kann ich diese nicht länger als eine Nacht rendern lassen.
Du ja. 99% der Käufer einer Gaming Grafikkarte machen sowas aber nicht.
Es war mir allerdings klar, das nach meinem Beitrag wieder einer kommt, und meint "Aber bei mir ist das so und so und ganz ganz anders!". Das ist auch völlig ok, alles gut. Aber das ist utopisch. Das ist am Kunden vorbei.
Das ist wie einer von den Kommentaren unter extrem verbuggten Games (nehmen wir jetzt mal Fallout 76), wo dann geschrieben wird "Also ich hatte keine Bugs, bei mir lief alles gut!". Ja, schön, kein Hate, alles gut. Es freut uns alle das es bei dir ohne Bugs lief. Leider lief es bei 99/100 Spielern nur mit Bugs.
Jetzt auf Grafikkarten gemünzt: Es ist super das du mit deiner AMD zufrieden bist. Es freut mich das du die neue AMD "gut" findest. Leider ist es aber so, das zu dem Preis sich kaum einer (außer eventuell Ausnahmen wie du) sich so ein Ding holen werden. Und das ist SCHADE. Das liegt aber LEIDER auch daran, das AMD diese Karte am Kunden vorbei entwickelt hat (wenn gleiche Leistung wie 2080): teurer und mit "weniger" "möglich sinnvollen features". Das kauft dann wieder keiner, und alle hoffen nur das durch diese Karte die 2080 im Preis sinkt, um sich dann eben eine Nvidia zu kaufen.
Denn nochmal: 8gb Vram sind nicht zu wenig. Weder heutzutage noch in 3 Jahren. Das muss doch selbst dir klar sein? Entwickel du halt ein Spiel, was 8gb Vram vorraussetzt und wer das nicht hat, muss schon bei 6gb Vram auf Mittel in 1080p spielen um durchschnittlich 30 FPS zu erreichen.
Wer kauft dieses Spiel? Wenn die Leute irgendwann dann mal Grafikkarten mit 1ggb Vram als Standart hätten, dann könnte man sich das Spiel ja mal in Very High/Ultra anschauen, oder? Macht aber in genau 4 Jahren keiner mehr ... dann müsstest du schon mit dem nächsten Titel raus kommen.
Spiele-Entwickler orientieren sich an der Hardware welche beim Kunden vorhanden ist. Das ist auch nur logisch wenn man sein Spiel verkaufen möchte. Und jedes Spiel mit schlechter FPS/Lags wird auch von Presse & Kunde nabgestraft.
Ich zitiere mal aus Computerbase: "Speicher-Auslastung
Shadow of the Tomb Raider bietet durchgängig hübsche bis sehr hübsche Texturen. Die hochaufgelösten Oberflächen benötigen jedoch auch viel Grafikspeicher. Die maximalen Texturdetails sollten daher nur bei Grafikkarten mit mindestens sechs Gigabyte Speicher genutzt werden. In Ultra HD sollten es 8.192 MB sein."
Also mit 4k könnte man bei einem hardcore AAA Titel in ~3-4 Jahren an eine Grenze, bezüglich 8gb Vram, stoßen. Allerdings machen 4k Spieler derzeit einen Marktanteil von 1,48% aus
Selbst mit meiner alten 970 GTX mit NUR (!) 4gb Vram läuft das Game noch in 1080p bei DirectX 12, maxed out settings with TAA fluffig mit 38.7 FPS.
Ergänzung ()
R1ng0 schrieb:
Abgesehen davon werden sich die Entwickler von AAA-Titeln kaum an diesem Durchschnitt orientieren.
Du willst dem Kunden das möglichst beste Erlebnis bieten, und das geht nur, wenn möglichst viele Kunden das Spiel in möglichst bester Qualität erleben. Das ist simples "Marketing". Alles andere wäre dumm.
Das weis sogar jeder Webdesigner, das du Homepages für die breite Maße machst, und nicht nur für Nerds mit ab i5 Prozessor, 4k Monitor und mindestens 200Mbit Internetleitung.
Die 970 hat ja nichtmal echte 4GB VRAM
Mit ungleichmäßigen Frametimes durch VRAM-Limit sehen 38fps auch nicht toll aus. Frametimes gab es bei pcgameshardware aber leider nicht zu sehen.
Stimme dir aber in der Kern-Aussage zu, solange die weit verbreiteten (liebevoll genannten) "Speicherkrüppel" von Nvidia wie 1050ti/1060/1660ti/2060 und aktuelle Konsolen noch existieren wird sich das alles noch was ziehen bis man 8GB+ braucht.
Die RX580 ist ja mit .82% nichtmal ansatzweise so weit verbreitet wie die 1060 mit 14.87% (Steam-Werte). Die 4/8GB und 3/6GB Versionen wurden aber von Steam zusammengeworfen.
Wobei grade RTX/DXR ja doch einiges an VRAM beansprucht, vielleicht sieht man dadurch einen größeren Sprung als in den vergangenen Jahren.
Solange RT & DLSS nicht von Konsolen unterstützt werden, denke ich nicht, dass diese Features breite Unterstützung finden werden, selbst wenn die gängigen Engines diese unterstützen, da sich der zusätzliche Aufwand nicht rechnet (es sei denn, NVIDA bezahlt und/oder stellt Support).
Gameworks wird von Konsolen auch nicht unterstützt, trotzdem setzen sehr viele PC Spiele drauf, dass ist keine plausible Argumentation.
Mich würde es sehr wundern, wenn die kommende Konsolengeneration (2020/2021) auf Raytracing verzichten würden, immerhin dürften die Konsolen dann bis ungefähr 2026/2027 auf dem Markt bleiben.
R1ng0 schrieb:
Wesentlich einfacher wäre es für Entwickler, höher auflösende Texturen bereitzustellen.
Das ist absolut falsch! Raytracing kann man wunderbar nachträglich implementieren und muss dafür an den Inhalten gar nichts verändern. Hochauflösende Texturen müssen hingegen speziell für diesen Fall und für einen sehr kleinen Markt erst erstellt werden. Du kannst nicht mal eben aus einer "normalen" Textur eine "bessere" erstellen, sondern muss praktisch die komplette Grafik in einer höheren Auflösung und mehr Details neu zeichnen.
Leistung der Karte auf 2080 Niveau und Preis drunter = Leute kaufen diese Karte.
Leistung abhängig vom Preis: Wenn eins der beiden Stellschrauben nicht stimmt = Fail.
Leider, so meine Vermutung, wird das wieder ein "typischer AMD":
Die Karte performant manchmal einen Zacken schneller, manchmal aber auch extrem schlecht, ist sehr laut, saugt viel Watt und hat mit "Kindergarten" Problemen zu kämpfen. Hinzu kommt der AMD typische Bastler-Aspekt: undervolten & Lüfter-Design verbessern. Und dann die Erkenntnis: Mal lieber auf Navi warten oder zur RTX greifen.
Mich würde es sehr wundern, wenn die kommende Konsolengeneration (2020/2021) auf Raytracing verzichten würden, immerhin dürften die Konsolen dann bis ungefähr 2026/2027 auf dem Markt bleiben.
Dann müßte AMD aber RT unterstützen (auf Konsolen), sind denn Pläne in der Richtung bekannt? Und Sony hat bereits mit der Entwicklung der Titel für die neue Konsole begonnen.
xexex schrieb:
Das ist absolut falsch! Raytracing kann man wunderbar nachträglich implementieren und muss dafür an den Inhalten gar nichts verändern. Hochauflösende Texturen müssen hingegen speziell für diesen Fall und für einen sehr kleinen Markt erst erstellt werden. Du kannst nicht mal eben aus einer "normalen" Textur eine "bessere" erstellen, sondern muss praktisch die komplette Grafik in einer höheren Auflösung und mehr Details neu zeichnen.
Demnach müßten ja in der unmittelbaren Zukunft die RT-Titel nur so auf uns herabregnen. Ich bezweifle das, lasse mich aber gerne eines Besseren belehren.
Und ja, es ist richtig, dass man aus einer niedrig auflösenden Textur nicht zuverlässig eine höher auflösende erzeugen kann, und wenn, dann nicht mit den Mitteln konventioneller Bildbearbeitung.
Man kann aber sehr einfach aus einer hoch auflösenden Textur eine niedrig auflösende Textur erzeugen. M.a.W.: Die Originaltextur muss lediglich hoch genug aufgelöst sein.
Da liegt auch das Problem meiner Meinung nach. Sobald AMD nicht günstiger sondern gleich teuer ist wird Nvidia gekauft. Selbst wenn das Verhältnis zu Gunsten AMD steht wird oft dennoch Nvidia gekauft. In dieser Hinsicht hat es AMD schon schwer.
Demnach müßten ja in der unmittelbaren Zukunft die RT-Titel nur so auf uns herabregnen. Ich bezweifle das, lasse mich aber gerne eines Besseren belehren.
Da die Kunden bisher kaum eine RT fähige Karte besitzen, ist das auch nicht nötig:
NVIDIA GeForce RTX 2070 0.32%
NVIDIA GeForce RTX 2080 0.30%
Und die 2060 fällt unter "sonstige" weil unter 0.16%,
Sobald aber 2070, 2060 und eine eventuelle 2050 in 1-2 Jahren Verbreitung gefunden haben, wird natürlich Raytracing in diversen Titeln angeboten werden. Das werden halt AAA+ Games sein, aber auch irgendein Dota2, LoL und Minecraft Krams. Ist halt das gleiche wie mit Nvidia Hair: Nette Dreingabe bei Game X, Y & Z.
Solange aber von 100.000 Kunden gerade mal 700 RT besitzen, ist das komplett unnötig, überhaupt nur einen Gedanken daran zu verschwenden. Außer natürlich bei Grafik-Show-Off Games, weil man dann mit den RT Bildern einfach bessere Werbung fährt.
@Piecemaker Raytracing in LoL oder Dota2? Das sind E-Sports Titel, die auf jedem Toaster laufen sollen. Da gibt es doch null Mehrwert durch Raytracing!
RT ist mMn. vielleicht für Singleplayer wie Witcher 3 o.ä. ganz gut. Ja, in BF V siehts schon ganz cool aus, aber ist mMn für einen schnellen Shooter nicht wirklich geeignet, da stehe ich ja nicht mal eben da und bewundere die Umgebung.
Bis die Konsolen und letztlich auch die Spiele kommen, wird es noch fast zwei Jahre dauern. Bis dahin ist noch genug Zeit um die Implementierung auch nachträglich einbauen zu können, wenn die APIs da sind. Bei der Xbox ist es noch etwas einfacher, hier ist die API (DXR) ja bereits fertig.
R1ng0 schrieb:
Man kann aber sehr einfach aus einer hoch auflösenden Textur eine niedrig auflösende Textur erzeugen. M.a.W.: Die Originaltextur muss lediglich hoch genug aufgelöst sein.
Das setzt voraus, dass man ein Spiel explizit mit diesem Hintegrund entwickelt! Es ist ja nicht so, als würde das Zeichnen detailierterer Texturen keine Zeit, Aufwand und Kosten verursachen. Solange also im Schnitt die Speichermenge bei den Grafikkarten oder Konsolen nicht steigt und nicht jeder zweite mit einem 4K Monitor unterwegs ist, lohnt es sich schlichtweg nur bedingt.
@Piecemaker Raytracing in LoL oder Dota2? Das sind E-Sports Titel, die auf jedem Toaster laufen sollen. Da gibt es doch null Mehrwert durch Raytracing!
RT ist mMn. vielleicht für Singleplayer wie Witcher 3 o.ä. ganz gut. Ja, in BF V siehts schon ganz cool aus, aber ist mMn für einen schnellen Shooter nicht wirklich geeignet, da stehe ich ja nicht mal eben da und bewundere die Umgebung.
Es gab diverse Grafik Updates in diesen Spielen, die der Performance nicht zuträglich waren.
Und jetzt? RT ist ein ZUSATZfeature. Optional. Genau wie alle anderen GFXU's in diesen Spielen.
Ich kann nur für LoL sprechen, aber da fällt mir jetzt spontan nichts an großen Grafikupdates ein, worauf du anspielst. RT passt doch auch garnicht zum Grafikstil von LoL und Dota2. Und wenn ich daran denke, wie schnell das mit den Sachen läuft, die RIOT implementieren will, sehe ich da schwarz für RT in den nächsten Jahren (nicht nur in Lol, in E-Sport Titeln i.A.).