News Turing für Spieler: Nvidia enthüllt GeForce RTX 2070, 2080 und 2080 Ti

Ja und ich denke durch die vielen Shader werden hohe Taktraten sehr schwer zu erreichen sein, wenn es gut läuft gesamt 15-20 % schneller als die 1080ti.
 
Suito schrieb:
Ich behaupte mal auser das RTX kommt nichts neues, der Rest an mehrperformance kommt von der erhöhten Shader Zahl (4352 vs 3584). rund 20% mehr Shader = ~20%mehr Leistung.
Ich vermute mal auser die RTX Cores, handelt es sich fast um identische Pascal Units.

Allein schon die Fertigung ist von 16nm auf 12nm und außer den Shadern ist auch der VRAM schneller...
 
Was ich auch interessant finde: Wird Turing HDMI 2.1 haben? Wenn ja, würde das dann Adaptive Sync Unterstützung bedeuten?
Das ist ja eine Spezifikation von HDMI 2.1, damit wäre Nvidia praktisch gezwungen auch Adaptive Sync zu unterstützen.
Jetzt ist halt die Frage, inwiefern man mit nem Freesync Monitor davon profitieren könnte
 
Rockstar85 schrieb:
Lass mich raten, du bist Jung?
AMD hatte mal früher 50% Marketshare und dennoch wurde nur Nvidia gekauft, selbst beim Fön oder G80 Generation hatte AMD zu gute Produkte um sie zu vernachlässigen, aber virales Marketing und Fanboys sind eben schlimmer als Fakten.

beim fön ging atis marktanteil nach oben und beim g80, nun da gings eben abwärts weil entgegen deiner aussage die hd2xxx kein gutes produkt war.
 
  • Gefällt mir
Reaktionen: Mcr-King
Oneplusfan schrieb:
Was ich auch interessant finde: Wird Turing HDMI 2.1 haben?
relativ einfach: Nein. Ein Schelm wer böses dabei denkt!
 
  • Gefällt mir
Reaktionen: kristwi und Mcr-King
Es spricht immer mehr gegen Turing.....
Mal schaun ob das Wunder noch passiert:D

Mal ernsthaft, früher oder später müssen sie HDMI 2.1 verbauen, die können sich nicht ewig dagegen sträuben
 
  • Gefällt mir
Reaktionen: kristwi und Mcr-King
DriveByFM schrieb:
dass es ein Paperlaunch ist weiß ich selber

offensichtlich weisst du nicht mal, was ein paperlaunch ist ;). von einen paperlaunch spricht man, wenn trotz offiziellen verkaufsstart wenig bis garkeine produkte zu kaufen sind.
 
  • Gefällt mir
Reaktionen: Hill Ridge und Mcr-King
Herdware schrieb:
Mit "sauberem" Raytracing braucht man die Trickserei irgendwann nicht mehr, aber es ist wie gesagt sehr zu hoffen, dass die Entwickler/Gameengines für die "RTX-off"-Einstellung trotzdem noch so lange möglichst tief in die Trickkiste greifen, bis Raytracing wirklich zum Standard geworden ist und jede Mittelklassekarte das mit links schultert. Sonst könnten Spiele bald für die allermeisten Spieler sehr hässlich aussehen.

Hier wurde doch auch ein Video von AMD gepostet. Okay, das war RT auf ihren Profikarten, aber es sollte nichts entgegensprechen das sie diese Technologie auch auf ihren Consumerkarten bringen. Als Early Adopter (Bulldozer, HBM) sind sie oft genug auf die Nase gefallen, so das es mich nicht wundert das sie diesen Schritt nicht gegangen sind. Wenn Nivida jetzt als erstes losprescht und AMD nur noch auch den fahrenden Zug aufspringen muss... bin mir sicher das AMD die passende Technologie auch liefern könnte wenn sie wollten.

Sollten die großen Publisher aufgrund der Ressourceneinsparung dann ihre Teams zur Verwendung von RT drängen, dann könnte sich das schneller durchsetzen als erwartet.
 
Oneplusfan schrieb:
Was ich auch interessant finde: Wird Turing HDMI 2.1 haben? Wenn ja, würde das dann Adaptive Sync Unterstützung bedeuten?
Das ist ja eine Spezifikation von HDMI 2.1, damit wäre Nvidia praktisch gezwungen auch Adaptive Sync zu unterstützen.
Jetzt ist halt die Frage, inwiefern man mit nem Freesync Monitor davon profitieren könnte
Das ist doch bereits Teil des DisplayPort Standards, wenn auch optional und wird bereits dort ignoriert.
Also selbst wenn, ich sehe keinen Grund warum sie auf einmal bei HDMI eine Unterstützung einbauen sollten anstatt es weiterhin zu ignorieren.
 
DriveByFM schrieb:
Was mich noch interessiert, warum Nvidia jetzt auf NV Link setzt, klar die Verbindung hat höheren Durchsatz, aber dafür das SLI eigentlich für tot erklärt wurde... Die NV Link Brücke kostet 85€ XD https://www.nvidia.de/geforce/buy/
Würde schon gerne wissen ob sich da jetzt was verbessert hat oder immer noch die alte Leier ist.

ganz einfach für RT benötigt man Bandbreite wie für HDR deswegen denke mal vielleicht waren sogar zwei RTX2080ti im Einsatz. ;-)
Ergänzung ()

ZeT schrieb:
Hier wurde doch auch ein Video von AMD gepostet. Okay, das war RT auf ihren Profikarten, aber es sollte nichts entgegensprechen das sie diese Technologie auch auf ihren Consumerkarten bringen. Als Early Adopter (Bulldozer, HBM) sind sie oft genug auf die Nase gefallen, so das es mich nicht wundert das sie diesen Schritt nicht gegangen sind. Wenn Nivida jetzt als erstes losprescht und AMD nur noch auch den fahrenden Zug aufspringen muss... bin mir sicher das AMD die passende Technologie auch liefern könnte wenn sie wollten.

Sollten die großen Publisher aufgrund der Ressourceneinsparung dann ihre Teams zur Verwendung von RT drängen, dann könnte sich das schneller durchsetzen als erwartet.

Nicht wirklich so lange es Konsolen nicht können aber mal sehen.
 
Wadenbeisser schrieb:
Ich bin eher von Microsoft enttäuscht das die sich auf den Mist einlassen anstatt einen eirklichen Standard zu verabschieden der für alle gilt.

Es gibt einen Standard der für alle gilt! Wo hat sich Microsoft auf etwas eingelassen?
 
Mcr-King schrieb:
Nicht wirklich so lange es Konsolen nicht können aber mal sehen.

Warum sollte das direkt mit Konsolen zu tun haben? Nvidia gräbt mit RT im professionellen Grakamarkt mit ihren Consumerkarten.

Die Welt besteht aus mehr als nur Gaming. Okay, nicht im CB Forum aber es gibt auch noch die Welt da draußen.
 
kristwi schrieb:
Allein schon die Fertigung ist von 16nm auf 12nm und außer den Shadern ist auch der VRAM schneller...

Durch die Fertigung kann Nvidia den mehr Shader draufpacken und die Shader verbrauchen weniger, ändert aber primär nichts an der Leistung.

Bei den VRAM hast du natürlich Recht. Hier ist es schwer etwas zu sagen.
Zieht man als Vergleich die 1080 und 180 11gbs herran, so hat man gleiche Shader und Takt bei 5000Mhz zu 5500Mhz Speichertakt.
In den Benchmarks gab es zwischen 0% und max. 5% perfomance gewinn, der durchschnitt sind 2-3%.

Auch wenn es komplett neuer Speicher ist, erlaube ich mir mal einfach auf GDDR5X Niveu zu rechnen.
Somit wäre der Takt von 7000 Mhz ein Gewinn zwischen 0-10% im besten Fall.

Also würde ich vermuten das die RTX2080Ti im besten Fall zwischen 20-30% mehrleistung liegt, bei non-RTX Games.
 
xexex schrieb:
Es gibt einen Standard der für alle gilt! Wo hat sich Microsoft auf etwas eingelassen?

Vergiss es. Versuch nicht einem religiösen Fanatiker einzureden das es Gott nicht gibt. ;)

Es wurde ja schon oft genug erklärt das RT kein prop. Mist is den weder MS noch NV erfunden haben. NAch der tausendsten Wiederholung sollte man verstanden haben das es die Leute nicht interessiert.

Frei nach "was interessieren mich Fakten, ich hab mir meine Meinung schon längst gebildet."

Man stelle sich vor AMD hätte eine VEGA RTX released... dann würden alle in Jubelarien ausbrechen weil sie den Stein der Weisen gefunden haben. ( außer sie würden 1200€ verlangen - dann wären sie der Evil schlechthin und NV der Verfechter des kleinen Mannes) ;)
 
  • Gefällt mir
Reaktionen: Oneplusfan
Lars_SHG schrieb:
...bitte was?
Jeder der eine Grafikkarte hat, will das maximum herausholen. Nicht jeder übertaktet auch noch zusätzlich, ja - aber darum ging es ja auch nicht, aber was macht es denn für einen Sinn, eine leistungsstarke Grafikkarte zu kaufen und diese dann nur mit 90% Last laufen zu lassen? Das was der Hersteller als max. vorgibt das wird auch genommen!
Die Handvoll Leute die sich andere Profile basteln um Kleinstgehäuse nicht zu überlasten oder aus anderen nachrangigen Gründen dürften wohl absolut in der kleinsten Minderheit sein.

.....

Richtig nur war das nicht Inhalt meiner Anmerkung.
Das Max bezog sich auf das Max Profil was AMD mitliefert. Von dem wird in jedem Test abgeraten, weil es nur Energie verbrennt.

Natürlich versuchen die meisten die maximale Leistung aus der Karte zu bekommen, aber das ist bei Vega nun mal eher weniger Spannung. Das Max Profil von AMD ist völlig daneben.
 
DriveByFM schrieb:
Was mich noch interessiert, warum Nvidia jetzt auf NV Link setzt, klar die Verbindung hat höheren Durchsatz, aber dafür das SLI eigentlich für tot erklärt wurde...

Die Consumer Grafikkarten sind in erster Linie Resteverwertung von professionellen GPUs. Dort gibt es NVLink für die Kommunikation unter den Chips, in erster Linie für Berechnungen und Deep Learning.
https://fuse.wikichip.org/news/1224/a-look-at-nvidias-nvlink-interconnect-and-the-nvswitch/
https://www.nvidia.de/data-center/nvlink/

SLI spielt da in den Überlegungen einfach keine Rolle mehr und braucht man unter DX12 letztlich sowieso nicht mehr.
https://developer.nvidia.com/explicit-multi-gpu-programming-directx-12
 
Zuletzt bearbeitet:
acc schrieb:
offensichtlich weisst du nicht mal, was ein paperlaunch ist ;). von einen paperlaunch spricht man, wenn trotz offiziellen verkaufsstart wenig bis garkeine produkte zu kaufen sind.

Danke für die Erklärung, war aber nicht nötig, da ihr anscheinend nicht wisst was Ironie ist. XD
 
HardwareKind schrieb:
Weil die Konkurrenz nichts vergleichbar attraktives mehr produziert.
Pff, du kennst wohl auch nurnoch Vega.
Er meint ziemlich sicher die letzten 10Jahre der AMD GPU sparte, und da stimmt es nunmal das sich nichtmal bessere AMD GPus besser verkauft haben. NV hat IMMER mehr verkauft auch schrott DIEs wie die der GTX260.
Einzig die 5800 konnte was reißen, es wurden trotzdem mehr GF100 verkauft.
 
  • Gefällt mir
Reaktionen: Rockstar85
Zurück
Oben