News Nvidia GeForce RTX: „Super“-Benchmarks noch vor AMD Radeon RX 5700 (XT)

n1ghtk1n schrieb:
Und wenn man, wie derzeit, jedes Quäntchen Mehrleistung 1:1 in Aufpreis umsetzt, wir es das bald gewesen sein mit PC Gaming.
Wo wird denn das Quäntchen Mehrleistung zur 2070 in einen Aufpreis umgesetzt?
 
  • Gefällt mir
Reaktionen: lynx007
pietcux schrieb:
Eventuell ja weil es in diesem Thread um RTX Super geht?
1. Ergibt das keinen Sinn
2. Ist das keine Begründung.
3. Bist du nicht der, den ich gefragt habe.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: G0k4r, fox40phil, Orok91 und 4 andere
Zotac2012 schrieb:
Ja, das mag sein, wenn man technisch nicht interessiert ist, ignoriert das Raytracing von Nvidia forciert wird, nächstes Jahr von AMD auf den Konsolen supportet wird und nicht auf Sicht, sondern nur auf hier und jetzt kauft, magst Du recht haben. Das ändert aber nichts an dem was ich geschrieben habe, aus technischer Sicht und auf Zukunft gerichtet!

Auch das mag stimmen, aber man hat zumindest die Möglichkeit, Games mit Raytracing zu spielen, wenn auch nicht mit der Framerate Leistung, wie das ohne Raytracing möglich ist. Aber AMD bietet halt in dieser Hinsicht mit ihren neuen Navi Grafikkarten gar nichts und wenn man sich das Gesamtpacket betrachtet, bekommt man bei Nvidia halt ein wenig mehr!

Ich bin auch kein großer Freund der RTX-Turing Grafikkarten und deren Preise, weil ich auch der Meinung bin, das aller Käufer einer RTX-Turing Grafikkarte doch mehr Beta-Tester sind und dafür auch noch teuer bezahlen. Ich schaue mir nur an, was wer für wieviel Geld anbietet und was das Produkt leistet und beinhaltet und da liegt aus rein technischer Sicht, Nvidia klar vorne. Aber klar ist auch, es steht jedem frei zu kaufen, was nach seiner individuellen Entscheidung, das Beste ist!

Es hat nichts mit fehlendem technischen Interesse zu tun, Raytracing in seinem momentanen Status zu ignorieren. Die Grafik ist nunmal für viele nicht derart spielentscheidend, selbst wenn man sonst eher ungern die Einstellungen runterschraubt. Flüssiges Spielgeschehen wird da doch eher geschätzt, als RT anzustellen, welches zwar hübsch, aber extrem leistungshungrig ist - und wie soll das in den nächsten Jahren aussehen? Wird sich wirklich diese hohe Investition in eine dieser Karten gelohnt haben? Der Leistungshunger sinkt ja nicht. RT wird vlt. am Ende der Lebenszeit dieser ersten Karten zum Gimmick.

Da stelle ich schon die Frage: Brauche ich das? NVidia sagt JA! Aber ich verneine ganz deutlich, auch weil ich dem Marketing nicht erlegen bin. Versteht mich nicht falsch, RT ist möglicherweise sogar die Zukunft, das zweifel ich nicht an, aber wir stehen eben ganz am Anfang dieser Entwicklung, und deshalb bietet NVidia hier momentan auch nichts für mich. Und ich hätte es schöner gefunden, wenn beide Anbieter sich da mal zusammengetan hätten, statt eben WIEDER proprietäre Standards zu entwickeln. Und es ist WIEDER NVidia, die damit zwar in neue Gebiete vordringen - das muss man ihnen lassen - die aber mit diesem Krempel immer wieder versuchen, Spieler vom "Besseren" zu überzeugen, dabei aber die Leistung der Karten drücken und damit wieder künstlich neuen Bedarf schüren. Ich glaube jedenfalls nicht daran, dass NVidia ehrenhafte Pläne verfolgt sondern knallharte ökonomische Interessen, und diese eben mit Tricksereien im Marketing umsetzt.

Da gebe ich dann auch lieber dem Underdog die Chance, sein Potential zu entfalten, der ist auch clever genug, nicht auf jeden Hypetrain aufzuspringen. Konkurrenz belebt das Geschäft. Am Ende entscheidet aber der Preis, und da muss AMD evtl. noch etwas runter.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Chismon, G0k4r, russianinvasion und 2 andere
tek9 schrieb:
Das Grafikkarten für 600 Euro die Mittelklasse sein sollen, wage ich ernsthaft zu bezweifeln. RTX 2080(ti) ist high end. Das gleiche gilt für X und Z Chipsätze bzw X und K CPU's.

High End PC haben immer so um 1500 Euro gelegen.

Leider wird geschicktes Marketing betrieben und den Leuten eingeredet das diese Produkte zwingend benötigt werden. Die einschlägigen Webseiten machen als Erfüllungsgehilfen einen guten Job und tragen fleißig dazu bei dies den Leuten glauben zu machen

Gibt es derzeit ein b450? Nein und ich möchte nicht gerade ein altes b450 Board haben.
Wenn eine Mittelklasse Navi und eine XX60 370-460€ kosten dann ist es die neue Mittelklasse.
 
scratch schrieb:
Und ich hätte es schöner gefunden, wenn beide Anbieter sich da mal zusammengetan hätten, statt eben WIEDER proprietäre Standards zu entwickeln. Und es ist WIEDER NVidia,
Sie haben sich zusammengetan und zwar mit Microsoft. Daraus wurden dann DXR. Wenn du RTX meinst, daß ist nur NVidias Implementierung davon.
 
  • Gefällt mir
Reaktionen: xBitwinSDKx, Dowinder, xexex und eine weitere Person
n1ghtk1n schrieb:
Und wenn man, wie derzeit, jedes Quäntchen Mehrleistung 1:1 in Aufpreis umsetzt, wir es das bald gewesen sein mit PC Gaming.

Die 2060s soll laut nvidia auf die Leistung von einer 1080(UVP, 600-700€; lange Zeit für 500-600€ zu haben) kommen, welche in etwa ja die leistung eine 2070(UVP520€!?; für ca 500€ zu haben) wieder spiegelt.
https://www.heise.de/preisvergleich....html?hloc=at&hloc=de&hloc=eu&hloc=pl&hloc=uk
https://www.heise.de/preisvergleich....html?hloc=at&hloc=de&hloc=eu&hloc=pl&hloc=uk
https://www.heise.de/newsticker/mel...hr-Kerne-mehr-Leistung-Mehrpreis-4457690.html


Sprich, der UVP fällt nochmal um 20€. Man bekommt ganze 2 GB noch dazu. Ob es echte 8GB sind, das muss man noch abwarten, aber es fällt dort halt ein kriterum "nur 6gb ist zu wenig" vielleicht dann komplett weg.
Fassen wir also zusammen, man bekäme also die Leistung einer 1080, einer 2070, und 8gb, ab 400€.

Wie schnell die 2070s wird, muss man sich noch anschauen, aber wen sie nur nah an eine 1080ti kommt, die weit mehr als 500€ gekostet hat(min 600€), dann ist das keine weitergabe von Mehrleistung durch den Preis.
Aber du wirst in etwa vermutlich die leistung einer 1080ti, vielleicht etwas weniger, plus Raytracing, für 500€ bekommen.

Auch bauen Konsolenchips auf sPC CPUs und PC GPUs auf. Sie sind kleiner, auf die Konsole optmiert. Auch haben sie ein auf die Konsole abgespecktes, optimiertes OS. Alles ist auf ein möglichst gute PL und niedreges Wohnzimmer Gerät getrimmt. Denoch muss das Zeug ja irgendwo entwickelt werden, sowohl die Hardware, wie auch die Software. Und schon allein deshalb kann es den PC in näherer Zeit nicht vollständig als Leadplattform ablösen können, weil sowohl Hardware und auch Software ja zum nicht unwesenltichen Teil vom PC kommt.

Auch wirst auf eine Konsole niemals konstante 120+ FPS bei 4k haben. Das ist einfach nicht machbar bei einem Wohnzimmergerät welches für "jeden" bezahlbar sein soll und zugleich in einer noch zumutbaren Lautstärke arbeiten soll. Umgekehrt wirst du aber immer Spieler haben die die Konsolen spiele deshalb nicht vollständig befriedigt, und gerade Spiele spielen möchten die eine Konsole nicht anbieten kann. Du wirst auf einer Konsole niemals auf mechnische Tastaturen und Gaming Mäuse optimierte Titel haben. Zu groß wäre der Vorteil gegenüber Gamepads die ihren Schwerpunkt einfach im Komfort legen. Crossplatforming lässt sich nur verwirklichen indem ich dem eingabegeräte des PC Spielers kastrierst, die Vorteile der präziseren und schnelleren PC Eingabe wegnehme. Ohne PC gäbe es auch keine aufwändigen Konsolen Spiele. Bei einer Entwicklungszeit die bei AAA Titeln bei oder gar über 5 Jahren liegen kann, worauf soll die Grafik und das Spiel entwickelt werden? PC Gaming wird immer mindestens ein nicht erseztbare Nische für Hardcore Gamer und auch Esportler bleiben. Abseit von FIFA, was hat den eine Konsole für Esport? Abgesehen von hersteller und lootboxen vorfinanzierte COD Tunieren?

Auch weil einem der PC als Arbeitsgerät begleitet, insbesondere bei den Spiele entwickler die ja oft Jahre vorher sich an die Spiele ransetzen bevor überhaupt die Plattformen auf dem Markt erhältlich sind.
Stichwort Esport und Eingabe Geräte wie Maus und Tastatur....

Dota, Starcraft, WOW, Warcraft3Reforged, LOL, Total War, Anno und abertausende und qualitativ überwältigende Indi-Steamgames... wo und wie soll es das Ende als PC Platform eingeläutet werden? Totaler Quatsch.... PC Gaming kann nicht sterben solange es Leute gibt die am PC arbeiten und auch leute gibt ohne kompremisse Spielen wollen.

 
Zuletzt bearbeitet:
Marcel55 schrieb:
1. Ergibt das keinen Sinn
2. Ist das keine Begründung.
3. Bist du nicht der, den ich gefragt habe.
Oha, Spaß verstehst du nicht, wenn es um Navi geht. Und deine Follower auch nicht.
Also nochmal war nur ein Scherz!
 
Raytracing per separater RTX Cores ist und wird genauso eine Totgeburt sein wie seinerzeit PhysX von Ageia was NV aufgekauft hatte... das Ganze ist entsprechend programmiert per CPU Kerne-Kerne-Kerne, Stichwort Havoc oder in den Shadern umsetzbar mit DX12 oder kommenden DX13, OGL-XY-Vulkan irgendwas.

Alles was nicht quelloffen und Open Source ist, das ist auf Dauer Schwachsinn, wie GSync, FreeSync ist und bleibt das bessere davon.

Und wie schon mehrfach erwähnt wurde, ist meistens die Schlampige Umsetzung der Programmierung das Problem.

Man kann, wenn man es ordentlich macht auch mit 4 Kernen und 8GB Grafikspeicher das gleiche bieten, nur die Faulheit diverser Softwareschmieden braucht 8 Kerne und 16GB Grafik, die denken sich für was sauber Proggen wenn die Power da ist, aber wir wissen es geht auch besser.

Crysis seinerzeit das beste Beispiel, heute wissen wir einfach Kacke und faul programmiert daher der Hardwarehunger, mit meiner Kiste @4k und allem drin habe ich Ruckler und das für ein bald 15 Jahre altes Spiel.
 
@Retro-3dfx-User genau wie jede andere in Hardware implementierte Decoder, etc. alles nur zauberei und Humbug. Warum hardwarebeschleunigung wenn man alles via Software machen kann :freak: das schlimme ist das du wirklich denkst dich auszukennen. Aber das Problem haben hier ja viele.und wo ist raytracing nicht quelloffen?!
Edit für die kleinkarierten: das Verfahren.
 
  • Gefällt mir
Reaktionen: xBitwinSDKx, Mumusud, .Sentinel. und eine weitere Person
@Skycrumb

Man kann es auch übertreiben, wo schließe ich Hardwareunterstützung aus?

Fakt ist der weg der RTX Cores ist nicht Quelloffen, ich rede auch nicht von SW, sondern freie HW Nutzung, genug Cores oder Shadercluster sind da, man ist nur zu faul entsprechend zu Programmieren.

Das Beispiel von PhysX habe ich genannt, langfristig war es einfach nur schwachsinnig, bei den paar Spielen die es nutzten aber auch gleichzeitig Physx per CPU unterstützten.

In spätestens 5 Jahren ist kein RTX Core mehr interessant, weil es was Offenes gibt, was jeder Hersteller von Chips dann nutzen kann in Hardware die allgemein zur Verfügung steht...

Und ich glaube auch nichts, sondern posaune hier meine Ansichten und Meinung.
 
CMDCake schrieb:
Beispielsweise lastet Mirror's Edge Catalyst von 2016 8 GB Vram auf Hyper Settings unter 1080p komplett aus! Apex Legends zieht jetzt schon 8GB mühelos in 1080p und Resident Evil 2 Remake knallt die 8 GB auch schon voll, ohne Luft nach oben. Glaubst du die Games, welche in Full HD schon ausgelastet sind, brauchen in 1440p und UHD weniger Speicher? Zumal siehts dann auch nicht rosig für die Zukunft aus...

Speicher-Belegung != Speicher-Nutzung.

Resident Evil 2 hat bei mir nicht einmal 8GB bei WQHD gefüllt. Die Anzeige im Menü war anfangs komplett broken und hatte nichts mit der VRAM-Nutzung im Spiel selbst zu tun. Nur weil ein Spiel mehr VRAM belegt, heißt das nicht automatisch, dass es auch die Daten im RAM alle nutzt.

Dann sehe ich mir mal gigantische Open World Spiele wie Odyssey an - 3,7GB VRAM in WQHD.
Nur weil ein paar Spiele einfach mal den VRAM voll kloppen, heißt das noch lange nicht, dass auch wirklich mehr VRAM benötigt wird.

795560


Der Afterburner zeigt dir zwar 5,2GB an, das Spiel selbst kommt auf 3,7GB.
 
  • Gefällt mir
Reaktionen: v_ossi und .Sentinel.
pietcux schrieb:
Oha, Spaß verstehst du nicht, wenn es um Navi geht. Und deine Follower auch nicht.
Also nochmal war nur ein Scherz!

Es gibt sogenannte smileys und memes,um sarkastische/ironische aussagen in einer non-mimik Kommunikation auszudrücken. Willkommen im Internet #Kappa
 
  • Gefällt mir
Reaktionen: lynx007
Retro-3dfx-User schrieb:
Raytracing per separater RTX Cores ist und wird genauso eine Totgeburt sein wie seinerzeit PhysX von Ageia was NV aufgekauft hatte... das Ganze ist entsprechend programmiert per CPU Kerne-Kerne-Kerne, Stichwort Havoc oder in den Shadern umsetzbar mit DX12 oder kommenden DX13, OGL-XY-Vulkan irgendwas.

Alles was nicht quelloffen und Open Source ist, das ist auf Dauer Schwachsinn, wie GSync, FreeSync ist und bleibt das bessere davon.

Und wie schon mehrfach erwähnt wurde, ist meistens die Schlampige Umsetzung der Programmierung das Problem.

Man kann, wenn man es ordentlich macht auch mit 4 Kernen und 8GB Grafikspeicher das gleiche bieten, nur die Faulheit diverser Softwareschmieden braucht 8 Kerne und 16GB Grafik, die denken sich für was sauber Proggen wenn die Power da ist, aber wir wissen es geht auch besser.

Crysis seinerzeit das beste Beispiel, heute wissen wir einfach Kacke und faul programmiert daher der Hardwarehunger, mit meiner Kiste @4k und allem drin habe ich Ruckler und das für ein bald 15 Jahre altes Spiel.

Sie werfen hier Sachen durcheinander die überhaupt nicht mit einander zu tun haben. Die RTX Cores, werden sich genauso durchsetzen wie die Shader vor 20 Jahren. Den auf anderer Art ist Echtzeitraytracing im vollen Umfang gar nicht möglich. Und dazu stehen wir mitlerweile an einen Punkt wo der Aufwand um photorealistische Beleuchtung und Effekte zu erzeugen so viel Geld verschlingt das kleine Studios es sich gar nicht mehr leisten können. Warum sehen den die Indi-Games Grafisch den aus wie "Scheiße"? Bitte jetzt nicht missverstehen. Sehr viele Indistudios können mittels stylischer Retroperspektiven durchaus beeindrucken...: Aber gerade daran sieht man doch auch wieder das kleine Studios überhaupt keine andere wahl haben wen ihr Titel Grafisch ansprechend noch wirken sollen.

Das ganze wird halt mit Echtzeitraytracing auch entschärft. Und damit Raytracing funktioniert, braucht man halt darauf spezialiseierte in Hardware "gegossene" Schaltkreise. Alles andere ist Unfug von Leuten die von Software wie auch Hardware leider wenig bis keine Ahnung haben. Seit 20 Jahren träumen PC Gamer von Raytracing in Spielen, und jetzt kommts so langsaem und natürlich kommen jetzt die Scheibenweltler mit ihrer gruden verschwörungstheorien.... facepalm

Ergänzung ()

Retro-3dfx-User schrieb:
@Skycrumb

Man kann es auch übertreiben, wo schließe ich Hardwareunterstützung aus?

Fakt ist der weg der RTX Cores ist nicht Quelloffen, ich rede auch nicht von SW, sondern freie HW Nutzung, genug Cores oder Shadercluster sind da, man ist nur zu faul entsprechend zu Programmieren.
Turing unterstützt doch neben RTX, auch DXR wie auch Vulkan. Verstehe das Problem jetzt nicht.... Und Raytracing nach zu modelieren ist nicht nur extream aufwendig, sondern man kommt ab einen bestimmten Punkt damit auch nicht mehr weiter.
https://devblogs.nvidia.com/vulkan-raytracing/

Und DXR, bitte korrigiert mich, ist in zusammenarbeit mit AMD entstanden. Sprich es gibt eine Schnittstelle auf der Windowsplattform worauf sowohl Hardware von AMD und nVidia funktioniert.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: xBitwinSDKx, Skycrumb, .Sentinel. und 5 andere
ahuev0 schrieb:
Es gibt sogenannte smileys und memes,um sarkastische/ironische aussagen in einer non-mimik Kommunikation auszudrücken. Willkommen im Internet #Kappa
Ich muss zugeben, ich bin deutlich älter als das Internet, aber auch so ziemlich von Anfang an dabei. Smileys und Memes finde ich jedoch immer noch nicht besonders wichtig, mag ein Fehler von mir sein, DSX und die dazugehörige Hardware Implementierung ist mir wichtiger.
Achtung das ist ernst gemeint.
 
Zuletzt bearbeitet:
Ist das nicht unglaublich anstrengend, solche Artikel über Gerüchte zu verfassen, während man seit Wochen Testmodelle im Gebrauch hat und genau weiss, was stimmt und was nicht?
 
  • Gefällt mir
Reaktionen: G0k4r, fox40phil und pietcux
Ich wäre da nicht so sicher das sie diese schon lange haben. Keine Angst CB wird dir darauf nicht Antworten können. Ist leider so ich warte auch gespannt.
 
lynx007 schrieb:
Und DXR, bitte korrigiert mich, ist in zusammenarbeit mit AMD entstanden. Sprich es gibt eine Schnittstelle auf der Windowsplattform worauf sowohl Hardware von AMD und nVidia funktioniert.
Und das scheinen hier viele wie @Retro-3dfx-User einfach aus was für einem Grund auch immer unter den Teppich kehren zu wollen bzw. schon fast zwanghaft zu ignorieren.
Und der Witz ist, dass seit heute die News unterwegs ist, dass AMD für seine GPUs vor einiger Zeit schon ein Patent angemeldet hat, welches fixed function Einheiten zur beschleunigten Berechnung der BVH verwendet.

Was machen die ganzen RTX Hasser nur, wenn AMD jetzt genau den (für die RTX Gegner) gleichen Mist baut, wie nvidia (gut- es wird dann nicht RTX heissen, sondern irgendwie anders).

Mensch - Endlich aufwachen. Die Art und Weise, wie RT im Hybridmodell und auch sonst am effizientesten berechnet werden kann, wurde schon längst von allen großen Playern abgesegnet und mittels DXR in eine Software API gegossen, die jeder nach belieben nutzen kann.

https://www.techspot.com/news/80724-amd-patent-describes-hybrid-approach-real-time-ray.html

Wenn AMD irgendetwas anderes, als die BHV Berechnung über fixed function units bieten sollte, dann verlassen sie den von ihnen selbst als effizient und in DXR manifestierten und für gut befundenen Modus.

Wie oft muss man das hier eigentlich noch anbringen, bis die Leute kapieren, dass das DXR Raytracing ein alter Hut ist und nichts proprietäres...

Das Prinzp das mit DXR bzw. dem BHV Traversal eingesetzt wird und nun auch von AMD, wurde von Timothy L. Kay. James T. Kajiya bereits 1986 erforscht/entwickelt.
https://cumincad.architexturez.net/system/files/pdf/67d2.content.pdf

Es ist KEINE nVidia Erfindung und keine proprietäre Art RT durchzuführen. Alles offen und für jeden Entwickler transparent.
Auch DXR ist nichts proprietäres. Kriegt das endlich mal in Euren Kopf.
Jeder Hersteller kann die Schnittstelle sofort und in vollem Umfang nutzen. Nutzt man sie, werden automatisch alle Raytracing- Titel die DXR nutzen zur eigens entwickelten Grafikkarte kompatibel. Auch solche, die keine RT- Kerne haben!! Die sind dann einfach nur naturgemäß deutlich langsamer.

Beim Wechsel von DX 9 auf DX10 oder 11 wurde doch auch kein solches Theater veranstaltet von wegen proprietär. Was zum Teufel ist jetzt plötzlich los, wenn es von DX12 auf DX12 mit DXR- Erweiterung geht?
Nur weil jetzt ausnahmsweise nicht AMD ist, welche diesen Standard als erste unterstützen?

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KlaraElfer, xBitwinSDKx, lynx007 und eine weitere Person
Ice-Lord schrieb:
Ich kaufe schon lange keine nVidia Karten mehr.
Nicht weil die Produkte nicht gut wären, sondern wegen ihrer Marketing und ProduktStartegien.
( und der Gelegentlichen Lügen und "Realitätsverzerrung" )
genau deswegen kenne ich nur noch 2 freunde die kein nvidia nutzen...
amd sein ruf kommt nicht aus heiterem himmel... poor volta haben sie auch mit 7nm noch nicht eingeholt.
amd gpu sind für diese stromfresser designs zu teuer.
 
Zurück
Oben