News Turing für Spieler: Nvidia enthüllt GeForce RTX 2070, 2080 und 2080 Ti

duskstalker schrieb:
was aber auffällig ist: ich habe mal die preise von vega und polaris gecheckt seit "turing reveal" - da bewegt sich garnix - nicht mal ein kleiner huster.

Aber das ist doch nicht nur bei den Vegas so, sondern auch die aktuellen Pascal-Karten sind, wie sie sind. Warum sollte sich auch was ändern? So lange keine Tests von Turing-Karten existieren und auch keine Turing zu kaufen gibt, wird sich da auch wenig ändern. Wenn Abverkäufe bzw. Preisanpassungen, dann, wenn tatsächlich was Neues auf dem Markt ist (und nicht nur angekündigt bzw. vorgestellt).
 
Die Preise interessieren mich letztendlich erst dann richtig wenn ich die Performance kenne. Alles andere ist für mich sinnlos, klar die Karten sind sehr teuer aber ohne eine exakte Einordnung erfolgt keine Bewertung.

Schöner Artikel zum Thema Performance mit RT ist auf Gamestar zu finden.

RT Performance - Gamestar

Sollte die Performance ohne RT nicht deutlich höher liegen, regt euch nicht auf.... behaltet eure Vega oder 1080 bzw. TI und seid glücklich jeder andere kann sich eine 1080Ti kaufen ;)
 
@Yukatan
Schön gesagt - was sind schon Zahlen im Namen (2070, 2080) - am Ende zählen die Bilder pro Sekunde. Es geht immer um das Preis-Leistungs-Verhältnis und da aktuell die Leistung noch gar nicht bekannt ist, kann man dieses auch nicht einschätzen. Folglich sind alle Aufregungen über die Preise für die Katz.
 
ZeT schrieb:
Wo ist der Unterschied ob AMD in Vulkan nachträglich RT integriert oder ob MS das jetzt mit DX12 gemacht hat?

Was Nvidia jetzt mit dedizierten RT Cores gemacht hat, ist das gleiche was damals T&L war.
AMD hat neben Mantle auch noch eine weitere Vulkan API?
Also mir ist bekannt das sie Teil des Konsortiums der khronos group sind durch das die bekannte Vulkan API weiter entwickelt wird und in dem z.B. auch nvidia sitzt aber wenn du das so sagst werde ich dir das einfach mal glauben allerdings hätte ich dann gern den entsprechenden Nachweis von dir.
 
  • Gefällt mir
Reaktionen: Mcr-King
Leli196 schrieb:
@Yukatan
Schön gesagt - was sind schon Zahlen im Namen (2070, 2080) - am Ende zählen die Bilder pro Sekunde. Es geht immer um das Preis-Leistungs-Verhältnis und da aktuell die Leistung noch gar nicht bekannt ist, kann man dieses auch nicht einschätzen. Folglich sind alle Aufregungen über die Preise für die Katz.


Nicht ganz. Denn auch wenn die Leistung viel höher sein sollte als bei einer 1080Ti. Würde ich nicht das Geld dafür bezahlen. Die Gehirnwäsche von Nvidia hat bei vielen wohl funktioniert. Das sind Preise die sind jetzt schon einfach nur Dreist, völlig egal wie viel Leistung die Karten haben.
 
  • Gefällt mir
Reaktionen: Mcr-King
Hauwexis schrieb:
Das sind Preise die sind jetzt schon einfach nur Dreist, völlig egal wie viel Leistung die Karten haben.
Wtf, was ist das für ein Quatsch? Angenommen die Leistung ist brachial und das Preis-Leistungs-Verhältnis exorbitant gut, dann wären die Preise nicht dreist. Klar, das ist unwahrscheinlich und wahrscheinlich sind die Karten nicht sehr preiswert, aber eben das habe ich ja eben gesagt - man weiß es nicht.
 
Wadenbeisser schrieb:
AMD hat neben Mantle auch noch eine weitere Vulkan API?
Also mir ist bekannt das sie Teil des Konsortiums der khronos group sind durch das die bekannte Vulkan API weiter entwickelt wird und in dem z.B. auch nvidia sitzt aber wenn du das so sagst werde ich dir das einfach mal glauben allerdings hätte ich dann gern den entsprechenden Nachweis von dir.

Ich sagte nicht das sie nach Mantle eine eigene API entwickelt haben, sondern RT für Vulkan. Ob sie das ganz allein oder mit Unterstützung gemacht haben ist für den eigentlichen Sachverhalt nebensächlich.

Jeder kann RT unter Vulkan und DX nutzen, daher ist es kein prop. System. Darum ging es doch eigentlich.
 
Leli196 schrieb:
Wtf, was ist das für ein Quatsch? Angenommen die Leistung ist brachial und das Preis-Leistungs-Verhältnis exorbitant gut, dann wären die Preise nicht dreist.

Das macht die Preise nicht besser. Es war schon immer so das man bei Folgegenerationen mehr Leistung zum gleichen Preis kriegt. Hier wurde, was auch schon bei Pascal passiert ist, aber kräftig an der Preisschraube gedreht. Da kann die Leistung noch so gut sein, bleibt das Preisverhältnis immer noch weit weg von "exorbitant" gut. Denn auch diese Leistung ist nächstes Jahr schon nur noch "mäh".
 
Wadenbeisser schrieb:
Ähm falsch, PhysX ist das Zwischenprogramm

PhysX ist kein "zwischenprogramm" sondern eine API die eine Ebene über CUDA angeordnet ist. Im Gegensatz zu Gameworks unterstützt die API nur Nvidia Grafikkarten weil sie eben auf CUDA basiert. Gameworks hingegen setzt auf DX auf und läuft auf allen Grafikkarten. Darunter ist nur noch der Treiber und die Hardware.

Nvidia HAT eine proprietäre RT Schnittstelle für professionelle Karten namens OptiX. Die ist aber nicht für Spiele sondern für professionelle Anwendungen gedacht und optimiert.

Wadenbeisser schrieb:
Der Compute Task bei DXR dürfte wohl eher den Fallback Modus betreffen.

Wenn du meinen Text lesen würdest und nicht nur wilde Behauptungen in den Raum reinwerfen würdest, solltest du merken dass diese Aussage Schwachsinn ist!

Fallback Layer requires:
Windows 10 with the Fall Creators Update or higher.
Dx12 GPU with a driver that has retail DXIL support.

Der Fallback Layer funktioniert ohne jegliche Hardwareseitige RT Unterstützung - mit entsprechender Leistung.
 
Zuletzt bearbeitet:
@ZeT
Wenn AMD keine API namens Vulkan besitzt dann können sie es auch nicht integrieren, womit dein Posting sinnlos wäre.
 
  • Gefällt mir
Reaktionen: Mcr-King
DriveByFM schrieb:
Was mich noch interessiert, warum Nvidia jetzt auf NV Link setzt, klar die Verbindung hat höheren Durchsatz, aber dafür das SLI eigentlich für tot erklärt wurde... Die NV Link Brücke kostet 85€ XD https://www.nvidia.de/geforce/buy/
Würde schon gerne wissen ob sich da jetzt was verbessert hat oder immer noch die alte Leier ist.

Abfall Produkt von den Pro Karten.
Wenn man es hat, kann man es auch Spielern anbieten, ganz egal ob es genutzt wird oder nicht. Davon ab, mit Raytracing könnte die Lastverteilung deutlich einfacher sein, vielleicht kann nvidia das dann selbst im Treiber direkt übernehmen und damit wäre Multi-GPU direkt wieder sinnvoll. (reine Spekulation, ich hab keine Ahnung wie teuer einzelne Rays sind und ab es Sync-Probleme geben kann)
 
  • Gefällt mir
Reaktionen: Mcr-King
xexex schrieb:
PhysX ist kein "zwischenprogramm" sondern eine API die eine Ebene über CUDA angeordnet ist. Im Gegensatz zu Gameworks unterstützt die API nur Nvidia Grafikkarten weil sie eben auf CUDA basiert.
Nein, die unterstützt auch CPUs und das schon länger. PhysX Threads konnte auch der Entwickler kontrollieren. Es kommt also darauf an wie viele Threads bei der Programmierung zur Verfügung gestellt werden können und da reichen auch die einer CPU mittlerweile aus. Siehe 3dmark.
 
Wadenbeisser schrieb:
@ZeT
Wenn AMD keine API namens Vulkan besitzt dann können sie es auch nicht integrieren, womit dein Posting sinnlos wäre.

Darf man für Vulkan keine extensions schreiben wie bei OpenGL? ^_^
Oder halt zumindestVerschläge zur Erweiterung einreichen? ;-)
Ergänzung ()

pclovely schrieb:
Nein, die unterstützt auch CPUs und das schon länger. PhysX Threads konnte auch der Entwickler kontrollieren. Es kommt also darauf an wie viele Threads bei der Programmierung zur Verfügung gestellt werden können und da reichen auch die einer CPU mittlerweile aus. Siehe 3dmark.

Hat nvidia mitterweile die Limitierungen für CPU berechnungen bei Physic X entfernt? Da war doch früher was von maximal 1 oder 2 cores, einfach um AMD Hardware zu benachteiligen... typischer Nvidia Mist halt.

Die haben soviel Mist gebaut das es mittlerweile schwer ist die Gerüchte, die Fakten und die Verschwörungstheorien voneinander zu unterscheiden, weil alles gleich verrückt klingt.

Bestes Beispiel: Nvidia Karten alter Genrationen werden künstlich verlangsamt > Verschwörungstheorie. Klingt aber nach etwas das Nvidia tun würde. ^_^
 
  • Gefällt mir
Reaktionen: Mcr-King
Apocalypse schrieb:
Hat nvidia mitterweile die Limitierungen für CPU berechnungen bei Physic X entfernt? Da war doch früher was von maximal 1 oder 2 cores, einfach um AMD Hardware zu benachteiligen...
Stammtischgequatsche, die Schnittstelle als solche hat sich nie geändert oder groß verändert (Laber Rhabarber), also auch nicht deren Programmierung. NVidia teilte in der Diskussion mit, dass 12 Threads reichen um genug Beschleunigung zu erreichen. Ob es auf Cuda nochmals besser aussehen kann, ist doch deren Sache. AMD/Ati hat nun mal kein Cuda (ist doch auch kein Beinbruch), dann reicht eben heute die CPU, oder man wählt andere APIs.
 
PhysX nutzt über die CPU aber kein SSE, AVX,... das ist Steinzeitcode, damit es schön langsam läuft...
 
  • Gefällt mir
Reaktionen: Mcr-King und Apocalypse
pclovely schrieb:
Stammtischgequatsche, sie Schnittstelle als solche hat sich nie geändert oder groß verändert (Laber Rhabarber), also auch nicht deren Programmierung. NVidia teilte in der Diskussion mit, dass 12 Threads reichen um genug Beschleunigung zu erreichen. Ob es auf Cuda nochmals besser aussehen kann ist doch deren Sache. AMD/Ati hat nun mal kein Cuda (ist doch auch kein Beinbruch), dann reicht eben heute die CPU.

Das hört sich schwer für mich an das du nicht zwischen dem Blob hinter einer API und der Schnittstelle selbst unterscheiden kannst. Die Implementation hat sich über die Jahre natürlich massive geändert und der Blob reagiert auch ganz anders auf die gleichen Befehle, je nach dem welche Hardware im System vorgefunden wird.

Natürlich bei gleicher Ansteuerung der API, weil das ist eben die Funktion einer API, es soll Aufrufe von Implementation trennen.
 
@Apocalypse
Was hat AMD damit zu tuen? ^^

@pclovely
Anfangs lief der CPU Fallback nur auf einem Kern und das auch nur mit hoffnungslos veraltetem FPU Code von dem AMD und Intel schon seit Jahren aus Performancegründen abrieten.
Nachdem die Nummer in der Presse ihre Runde machte kam mit SSE mal eine Unterstützung für aktuellere Befehlssätze hinzu aber ein genereller Multicore Support? Fehlanzeige. Erst viele Jahre später kam da für den Endanwender Bewegung in die Geschichte allerdings nicht generell per normalen Update der PhysX Software. Wenn ich mich recht erinnere musste da schon das Spiel selbst eine entsprechende Version mitbringen.
 
  • Gefällt mir
Reaktionen: Apocalypse
Die API usw. muss das natürlich akzeptieren und es gibt Eigenschaften/Methoden/ und tralala zu beachten. Die Entwickler werden schon wissen, wie - was - warum.;)

Das sich ein Hersteller mal benachteiligt fühlt und nachfragt, oder motzt wenn die Antwort fehlt ist auch schlimm.

@HillRidge
AVX? Schon mal an Takt Limits gedacht, PhysX an=2.5 GHz/PhysX aus=4.0 GHz oder was meinst du?

@Waddenbeisser
Limitationen machen immer dann Sinn, wenn keine "freien" Threads in Programmierung verfügbar sind. 4Core=4T und dann hau ich bei 4 verfügbaren T=3T mit hoher Priorität nur für PhysX weg? Früher, wie du es beschreibst.

Es war aber Entwickler kontrolliert, warum dann nur 1C frag die.
 
Zuletzt bearbeitet von einem Moderator:
Oder auch mal für den Stammtisch:

PhysX ist wie eine Liste mit Verfügbaren Sorten an einer Eisdiele. (API)
Und wenn dann Team Grün und Team Rot dann sich einen Becher Schokoeis bestellen, dann bekommt Team Rot eine Kugel erbrochenes Schokoeis, und Team Grün 10 Kugeln mit Schlag und Schokostreuseln.

PhysX und auch Gameworks sind nicht nur APIs, sondern Frame Works die sich um die Implementation der API kümmern. Wenn Nvidia nur Kontrolle über die API hätte und die Implementation für die Konkurrenz offen lassen würde, gäbe es kein Problem.

Wenn Nvidia's Implementation nicht Grotten schlecht für non-nvidia hardware wäre, dann wäre der Propietäre Blob auch kein großes Problem.

Nur Nvidia ging sogar soweit, das die CUDA implementation deaktiviert wurde, wenn auch nur ein AMD Produkt im System detektiert wurde, selbst wenn man eine dedizierte Nvidia Karte für PhysX hatte, wurde diese nicht mehr genutzt, sobald das System auch AMD/ATI Karte hatte. Also in Zeiten als eine dedizierte PhysX Karte noch eine Option war. ;-)

Ist das Ihr gutes Recht? Klar, warum auch nicht, wenn ihre Kunden das mit sich machen lassen.

Gleiches Spiel mit dem Overkill Tessellation in vielen "Nvidia Spielen". Warum auch nicht x64 Tesselation, das mag zwar die FPS der eigenen Kunden auch einbrechen lassen, aber weniger als bei den Suckern von AMD!!11!! ;-)
 
Leli196 schrieb:
Wtf, was ist das für ein Quatsch? Angenommen die Leistung ist brachial und das Preis-Leistungs-Verhältnis exorbitant gut, dann wären die Preise nicht dreist. Klar, das ist unwahrscheinlich und wahrscheinlich sind die Karten nicht sehr preiswert, aber eben das habe ich ja eben gesagt - man weiß es nicht.


Sorry aber du hast den Bezug dazu verloren. Wie kann man solche Preis nur gut heißen? Schau dir die vergangenen 6 Jahre an wie unverschämter die Preise wurden.
Einfach nur nicht kaufen und fertig.
Ist mir schleierhaft wie man sowas auch nur verteidigen kann.
 
Zurück
Oben