Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsBattlefield V: Weniger Raytracing für mehr Leistung auf GeForce RTX
ganz offensichtlich hat er nicht so unrecht. Zumindest hab ich nun in 1080p wieder einen Grund eine neue GPU zu holen. Wie viele bauen sich ne 400€ CPU ein um nachher in 1080p 5 FPS mehr zu haben. Vielleicht bauen sich auch viele ne 1000€ CPU sein um auf bisher undenkbare Effekte rückgreifen zu können. Kann ja jeder für ich ausmachen.
Diese Effekte machen ggf nen größeren Unterschied optisch als in 4K zwischen den höchsten 2 Presets hin- und herzuschalten. Und einfach mal abwarten was nachher bei rauskommt, auch in 4K Performance. Es wäre ja denkbar dass man die RTX Effekte dann weiter in 1080p rechnet und upscaled.
Über reine Shader Leistung dürften die GPU ja wie heute skalieren. Wenn also in 1080p das Raytracing am Limit ist muss das noch nichts für 4k + RTX Performance aussagen, sondern kann je nach Umsetzung auch dieselbe oder ähnliche Performance als in 1080p haben.
Die aktuelle Umsetzung drückt die Framerate mit Raytracing auf das Niveau welcher Karte ohne Raytracing? So ca. das einer GTX1030 oder noch weiter darunter?
Abgesehen von den hardcore Fans dürfte es für 1080p grob geschätzt noch weniger zum Wechseln bewegen als beim GPU PhysX.
Der Raytracing Zusatz wird wegen der mangelhaften Framerate nach eine Demo Runde ganz einfach abgeschaltet und der Fallback genutzt oder man zahlt gleich für einen eher geringen Unterschied nur noch einen Bruchteil des Preises. Der Ansatz der RTX Modelle ist aufgrund des Leistungshungers ganz einfach Murks.
Mit spezialisierten Addon Beschleuniger Karten sähe die Sache natürlich wieder anders aus, erst recht wenn man mehrer dafür einsetzen könnte. Dann wird der Rechner zwar zu einem Strom vernichtenden Heizkraftwerk aber man könnte zumindest auch in hohen Auflösungen und mit höhen Frameraten damit zocken.
Es würde mich ehrlich gesagt nicht wundern wenn AMD deshalb die Raytracing Geschichte aussitzt oder mit Addon Karten anfängt.
netter Ansatz aber wenn es nur eine handvoll Enthusiasten haben fehlt es am Ende am Software Support da man nichts für ne Randgruppe entwickelt und implementiert.
Das ganze RTX ist natürlich aktuell ein Testballon, der PhysiX Vergleich war schon ganz treffend. Henne Ei Problem ebenso.
Dass der Testballon intern bei Nvidia schon lange Thema war und vorangetrieben wurde zeigt die doch recht solide RTX Demonstration. Die Sache funktioniert. Wie performant sie aktuell ist ist ein anderes Thema. Wichtig ist sie funktioniert und mit schon 7nm kann man ggf die RT Leistung mehr als verdoppeln - sollte der Markt danach verlangen.
Ergänzung ()
Aldaric87 schrieb:
Ich sehe nicht wo sie Konkurrenzlos sind. Bis zur 1080 gibt es Konkurrenz. Die 1080 Ti ist zwar das Maß der Dinge, aber dort sind trotzdem die Stückzahlen nichts im Vergleich zur Mittelklasse.
machst du Konkurrenz nur am Release Tag einer GPU fest? Vega war noch nie Konkurrenz. Die bringt kaum was ein Nvidia kann mit dem Preis noch ewig runter gehen sollte das nötig sein. Wird man auch wenn man mit den neuen GPU mehr bedienen kann (aktuell wird die Verfügbarkeit ein Problem sein).
Wenn man von Konkurrenz redet sollte man schon auch den Zeitraum auf den Markt sowie die Marge + Market Share und alles betrachten (nicht PL). Es ging ja um die Position die Nvidia gerade inne hat und der verfügbare Hebel ist weit größer als er je mal war.
-> sehr gute Rekordquartale mit guten Gewinnen für Rücklagen
-> eine alte TSMC Fertigung (vermutlich auch günstig) die dennoch in Effizienz mehr als mithalten kann
-> weit kleinere Chips als die Konkurrenz mit günstigerem GDDR
-> die weit höhere Marge (50% aufwärts, bei High End vermutlich eher um 60%)
-> weit breitere Community
während AMD den Vega schon fast zum Selbstkosten Preis raushaut und entgegen zu Vega aktuell kaum nennenswertes um einen Consumer Nachfolger im Umlauf ist.
Für Nvidia ist das betriebswirtschaftlich keinen nennenswerte Konkurrenz. Deswegen stellt man auch nur Karten mit Preisniveau >1080 vor und keine RTX 2050.
Schau dir die Steam Market Shares und Karten an. Deswegen ist der Zeitpunkt für Nvidia ideal etwas neues zu wagen.
Zu was? 1080p oder 4k ? 40% mehr auf 1-2 k (Was eh keiner mehr braucht) Leistung heißt nicht gleich 40% auf 4k. Das ist die frage. Auf flüssige 4K hätte Nvidia für 350-600€ Bauen sollen.
Und da irrst Du dich. Wo eine ältere Karte schnell an seine Grenzen kommt, kann die neuere besser damit umgehen. Konnte man letztendlich zwischen 980ti und 1080ti bei den Tests sehen:
Wie groß ist der Unterschied zwischen der EVGA 980 ti SC in Full HD und 4k?
Evga 980 ti SC+
1080 ti
FHD
70,6 fps
96,6 fps
WQHD
54,6 fps
89,6 fps
4k
35,44 fps
57,24 fps
Verbesserung 1080 ti ggü. 980 ti SC+ in Prozent
FHD
37 %
WQHD
64 %
4k
61,5 %
Ich würde auch gerne eine neue Karte haben, die eine Mehrleistung von 300 % meiner 980 hat und dafür nur 300 EUR kostet (wer nicht). Nur funktioniert es nicht, da die Entwicklung langsamer geht, wie auch die Umstellung/Be- und Verarbeitung der Produktionsprozesse (wie auch der Software).
Die haben sich selbst veräppelt . Machen die größte Werbung und Geheimnis für nichts . Eigentor das ganze . 1080 Ti werden günstiger 😂😂😂 kaufe gleich 2 davon
Willst du jetzt ernsthaft die RT Marketingshow mit der Voodoo vergleichen? Was diese lieferte war erstens ein pornöser Quantensprung der Grafik und zwotens massiv bessere Geschwindigkeit dazu.
Alles was damals keinen Glide Support hatte war auf einen Schlag massiv veraltet.
Weil? Fertigung ist nicht neu und 7nm klopf quasi schon an. In der Summe ist es eine Zwischengeneration zum experimentieren und überspringen.
Ja pornöser quantensprung der ähnlich wie RT auf V1 480p/V2 768p mit 16bit beschränkt war. Eigentlich sogar sehr ähnlich RT. Wobei bei erscheinen der Voodoo1 hatten nur sehr wenige Games 800x600 . Dürfte Tomb Raider gewesen sein. das mit patch als erstes 800x600 angeboten hat.
Und die Kosten für die Zusatzkarten waren auch ähnlich der jetzigen 2018 Ti . Wenn man sich den Luxus von 2 Voddoos geleistet hat , naja davon will ich gar nicht reden zumal man dann auch ein entsprechendes NT neu dazukaufen musste.
3DFX war schon sehr nice und habe ich selbst genutzt , aber es war wie die 2080Ti numal ein teurer Spass und 2tens auch mit abstrichen, nämlich der Auflösung und Farbtiefe. Und was nach der V2 kahm konnte dann auch nicht mehr so überzeugen finde ich. V5500 wäre zwar ne geile allrounder karte geworden, aber kahm wie man weis zu spät .
Das war irgendwie klar, dass das so nixht released wird. Wenn die 2080 Ti gerade mal 60 FPS schafft und das nicht dirchgehend, dann wird eine RTX 2070 gerade Mal 40FPS mit Drops auf 30 FPS schaffen und wenn eine 700 Euro Karte schon beim Release aktuelle Spiele nicht einmal annähernd flüssig darstellen kann, dann läuft einiges schief. Ehrlich gesagt bezweifle ich überhaupt, dass jemals so viel Leistung vorhanden sein wird um komplett auf reines Raytracing zu setzen. Ich meine wir haben noch einen Sprung auf 7nm, vielleicht noch auf 5nm aber dann wars das, zumindest werden die Kosten pro Transistor danach nicht mehr viel sinken und von komplett neuen Technologien ist weit und breit noch nichts zu sehen.
auch das könnte ein Vorteil von Raytracing sein. Das skaliert ggf weit besser über mehrere Chips hinweg. Besser als alles was wir zu Multi GPU gesehen haben.
... eher Gerücht aber ich denke auch dass es darauf hinauslaufen wird. Wenn diese in Konkurrenz zur RTX 2070 treten kann wäre das schon gut, sofern sie für AMD dann auch deutlich wirtschaftlicher ist als eine RTX 2070 für Nvidia. Wobei Nvidia ja nach wie vor den GP104 neu auflegen kann wenn es dazu geht einen RTX-freien AMD Pendant zu schaffen. 7nm scheint man da noch nicht mal zu brauchen, zumindest aktuell nicht.
Na ja, also soviel wohlwollenden Optimismus muesste sich AMD/RTG erst 'mal wieder bei mir erarbeiten nach dem verhunzten RX Vega Martkstart und den teilweise nicht erfuellten Versprechnungen eines mittlerweile bei Intel ansaessigen Herrn Koduris .
Intel ist allerdings ein nicht zu unterschaetzender Faktor im ganzen RTX-Hype bzw. hinsichtlich einer moeglicherweise andauernden RT-Raytracing-Entwicklung und koennte - wenn AMD/RTG nicht zuckt/mitmacht - das sprichwoertliche Zuenglein an der Waage sein, falls - und das sei hier wiederholend betont - falls wirklich die ersten fuer 2020 gemunkelten Intel Gaming-GPUs mit einem RT-Raytracing Bausatz/Feature ebenfalls auf den Markt kommenden sollten (und nVidia damit vielleicht paradoxer Weise gar den Hintern retten koennten).
Koduris Vorliebe fuer cinematische Computer-Grafik - in die RT-Raytracing passen wuerde - ist bekannt, aber bei Intel hat er m.W. nicht alleine das Wort (bei der ersten Gaming-dGPU-Generation), denn da herrscht eine andere Unternehmenskultur als bei AMD/RTG.
Zurueck zu AMD/RTG, ja, diese sollten mittlerweile genuegend Schotter haben um wieder mehr als nur eine GPU-Halbgeneration sich entwicklungstechnisch leisten zu koennen und die sich anbahnende verhaeltnismaessige "RTX Schwaeche" (im Vergleich zu den GTX Kepler-, Maxwell- und Pascal-Generationen) bettelt geradezu darum, von AMD/RTG ausgenutzt zu werden mit einer (oder gar zwei) Oberklasse-Navi-GPUs in 7nm gekontert/obsolet gemacht zu werden.
Des Weiteren sind in die Navi Entwicklung (Koduris "Ex-Baby") selbst zu RX Vega Optimierungs-Treiber-Peaks/-Zeiten, noch Ressourcen in die Weiterentwicklung von Navi geflossen, wenn man den Geruechten glauben mag, was fuer eine deutlich ausgereiftere/ueberarbeitete Architektur (hoehere Prioritaet) nebst Sprung hinunter auf 7nm sprechen duerfte ... die TSMC-Fertigung ist da nur die Kirsche auf der Sahne.
Allerdings wird es wohl die finale Iteration der GCN-Architektur werden und ob man da einen glaenzenden Abgang (Rohleistung halbwegs auf die Strasse) hinbekommen wird?
Die RTX 2070 - soweit kann ich mich auch ohne Tests, beruhend auf diesem und anderen Entwicklerberichten, jetzt schon fast aus dem Fenster haengen - wird aller Voraussicht nach ein richtiger Flop werden (und das fuer die neben der Brot und Butter 60er Karten-Serie wohl populaerste Kartenklasse nVidias), weil diese hoffnungslos fuer RT-Raytracing unterdimensioniert sein duerfte und bei dem veranschlagten Preis nichts richtig leisten wuerde (an keine GTX 1080Ti aller Voraussicht nach leistungstechnisch heranreicht und RT-Raytracing vermutlich mehr schlecht als recht in Full-HD - bei fuer diese GPU speziell heruntergeschraubte "Raytracing-Pracht" - leisten wird koennen).
Mit einem 7nm Turing-Refresh oder Ampere (also einer RTX 3070) koennte das allerdings wieder gerichtet werden, aber dann zu welchem Preis ?
Also ich bleibe dabei, unter 7nm Fertigung kommt mir vorerst keine neue GPU mehr in meinen Desktop-Rechner und fuer Mobilrechner brauche ich keine "Schlankheitswahn"-MaxQ RTX 2080 mit RTX 2070 Leistung (die wohl in nicht allzu ferner Zukunft auch auf den Markt gebracht werden soll), denn da tut es auch Pascal (ohne MaxQ) noch oder vielleicht kann da AMD/RTG sogar mit den 7nm Navi-GPUs richtig heftig einschlagen und Marktanteile holen, wer weiss?
Das koennte sogar richtig spannend werden, wenn AMD/RTG endlich im Mobil-dGPU-Sektor eine Offensive starten wuerde und eine Alternative boete zu nVidia trotz/neben der eigenen APU-Initiative, einzig mehr Hersteller/Anbieter (neben Apple) braeuchte es zudem noch, die Mobil-dGPUs von AMD verbauen muessten).
Mit spezialisierten Addon Beschleuniger Karten sähe die Sache natürlich wieder anders aus, erst recht wenn man mehrer dafür einsetzen könnte. Dann wird der Rechner zwar zu einem Strom vernichtenden Heizkraftwerk aber man könnte zumindest auch in hohen Auflösungen und mit höhen Frameraten damit zocken.
das ist eben die Frage ob das in dieser sehr latenzkritischen Umgebung funktioniert. Schön wäre das natürlich, eine tensor + RT karte zur GTX 980 TI einbasteln und schon kann ich Raytracing Effekte nutzen.
Zum Leistungseinbruch. Man darf eben nicht vergessen dass es eine ganz andere Art von Effekt als bisher ist. Wie das AVX bei CPU erstmal selten genutzt wird.
Man hätte natürlich auf 3nm und 4k 60p Raytracing warten können, ganz theoretisch, aber den frühen Start muss Nvidia gehen um die Community dafür aufzubauen und Erfahrung damit zu sammeln. Nur dann kann man die nächsten Gens auch optimieren. Dazu reicht Nvidia auch ein kleines aber nicht zu kleines Klientel.
Aktuell weiß man ja auch noch nicht wie das mit der Performance in 4k aussieht. ggf kann man auch einfach ein paar Effekte abschalten, zB nur Schatten damit aufhübschen oder eben nur einen Teil der Spiegelungen einer Szene.
Das RT muss die Performance nicht drücken (sind ja eigene Rechenwerke auf der Die). Das tut sie erst wenn die RT Engine nicht nach kommt. Kann sein das Limit bei den RT Dingen ist einfach 40 FPS. Dann schafft man eben auch nur 40 FPS egal ob in 4k oder 1080p.
Ergänzung ()
Chismon schrieb:
Also ich bleibe dabei, unter 7nm Fertigung kommt mir vorerst keine neue GPU mehr in meinen Desktop-Rechner
Also was ist jetzt los? Wieso soll das, was alle gefordert haben den nun plötzlich schlecht und der Untergang sein?
Können sich die Kritiker vielleicht mal entscheiden?
Intressant, das dem so ist habe ich nirgends etwas zu lesen können. Und in der News hier seht:
"In einem Interview verkünden die Entwickler von DICE, in der finalen Version des Spiels zunächst weniger Raytracing-Effekte als geplant zu verwenden, um eine akzeptable Framerate zu ermöglichen. "
Scheiss auf Balancing. Der mit der dickeren Maschine gewinnt. Warum nicht gleich Konten vergleichen und Verlierer und Gewinner über Guthaben bestimmen?
ich mein - ist klar, dass nvidia derzeit die einzige hardware mit dedizierten raytracing einheiten hat - aber auch konventionelle grafikkarten können raytracing rendern - nur extrem langsam.
ich fände es besser, wenn jeder raytracing aktivieren könnte und dann ein stutterfest hat - als dass man direkt von anfang an einen nvidia exklusiven "gameworks" bullshit draus macht.
sauberer schachzug von nvidia, alles außer den drei rtx karten direkt mal auszusperren - per software.
aber wer hat ernsthaft was anderes erwartet? das ist gameworks 2.0.
solche fanboy links helfen keinen weiter. dice hat sich entsprechend dazu geäussert, das man rt auch für amd hardware optimieren wird, sobald entsprechende hardware vorliegt.
Scheiss auf Balancing. Der mit der dickeren Maschine gewinnt. Warum nicht gleich Konten vergleichen und Verlierer und Gewinner über Guthaben bestimmen?
Ich weiss garnicht, was alle immer gegen PhysX haben.
Wenns irgendwo integriert ist, treibt das meinen Spaßfaktor immer in die Höhe:
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
"In einem Interview verkünden die Entwickler von DICE, in der finalen Version des Spiels zunächst weniger Raytracing-Effekte als geplant zu verwenden, um eine akzeptable Framerate zu ermöglichen. "
Dann lies Dir mal den Originalartikel durch. Dort steht, dass das Erscheinungsbild von RTX, wie es hier ja x- Fach von den Kritikern bemäkelt wurde, unrealistisch ist und man den Effekt deshalb abschwächen wird "tone down".
Zudem steht dort, dass man eine Performanceoptimierung durchführen wird, wo Orte, die so übertrieben spiegeln, dass die Leistung in die Knie geht, überarbeiten werden.
Mehr hat der technische Leiter nicht gesagt. Dass also nun aus einem normalen optimization Run, wie er in jedem Spiel x-Mal genau mit dem gleichen Muster durchgeführt wird nun ein "wir setzen weniger Raytracing- Effekte ein um akzeptable Frameraten zu ermöglichen" wird, ist mir ein Rätsel.
Mehr sagt er nicht. Der Rest wird von den Publikationen hinzugefügt (gedichtet).