Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Turing für Spieler: Nvidia enthüllt GeForce RTX 2070, 2080 und 2080 Ti
- Ersteller MichaG
- Erstellt am
- Zur News: Turing für Spieler: Nvidia enthüllt GeForce RTX 2070, 2080 und 2080 Ti
kristwi
Lieutenant
- Registriert
- Sep. 2014
- Beiträge
- 1.018
Suito schrieb:Ich behaupte mal auser das RTX kommt nichts neues, der Rest an mehrperformance kommt von der erhöhten Shader Zahl (4352 vs 3584). rund 20% mehr Shader = ~20%mehr Leistung.
Ich vermute mal auser die RTX Cores, handelt es sich fast um identische Pascal Units.
Allein schon die Fertigung ist von 16nm auf 12nm und außer den Shadern ist auch der VRAM schneller...
duskstalker
Admiral
- Registriert
- Jan. 2012
- Beiträge
- 7.929
der schritt von tsmc 16nm auf 12nm ist wie der schritt von glofo 14nm lpp auf 12nm lp.
O
Oneplusfan
Gast
Was ich auch interessant finde: Wird Turing HDMI 2.1 haben? Wenn ja, würde das dann Adaptive Sync Unterstützung bedeuten?
Das ist ja eine Spezifikation von HDMI 2.1, damit wäre Nvidia praktisch gezwungen auch Adaptive Sync zu unterstützen.
Jetzt ist halt die Frage, inwiefern man mit nem Freesync Monitor davon profitieren könnte
Das ist ja eine Spezifikation von HDMI 2.1, damit wäre Nvidia praktisch gezwungen auch Adaptive Sync zu unterstützen.
Jetzt ist halt die Frage, inwiefern man mit nem Freesync Monitor davon profitieren könnte
Rockstar85 schrieb:Lass mich raten, du bist Jung?
AMD hatte mal früher 50% Marketshare und dennoch wurde nur Nvidia gekauft, selbst beim Fön oder G80 Generation hatte AMD zu gute Produkte um sie zu vernachlässigen, aber virales Marketing und Fanboys sind eben schlimmer als Fakten.
beim fön ging atis marktanteil nach oben und beim g80, nun da gings eben abwärts weil entgegen deiner aussage die hd2xxx kein gutes produkt war.
aldaric
Admiral
- Registriert
- Juli 2010
- Beiträge
- 8.225
Oneplusfan schrieb:Wird Turing HDMI 2.1 haben?
In den Spezifikationen auf der Seite stand nur HDMI 2.0b.
relativ einfach: Nein. Ein Schelm wer böses dabei denkt!Oneplusfan schrieb:Was ich auch interessant finde: Wird Turing HDMI 2.1 haben?
O
Oneplusfan
Gast
Es spricht immer mehr gegen Turing.....
Mal schaun ob das Wunder noch passiert
Mal ernsthaft, früher oder später müssen sie HDMI 2.1 verbauen, die können sich nicht ewig dagegen sträuben
Mal schaun ob das Wunder noch passiert
Mal ernsthaft, früher oder später müssen sie HDMI 2.1 verbauen, die können sich nicht ewig dagegen sträuben
DriveByFM schrieb:dass es ein Paperlaunch ist weiß ich selber
offensichtlich weisst du nicht mal, was ein paperlaunch ist . von einen paperlaunch spricht man, wenn trotz offiziellen verkaufsstart wenig bis garkeine produkte zu kaufen sind.
ZeT
Vice Admiral
- Registriert
- März 2008
- Beiträge
- 6.943
Herdware schrieb:Mit "sauberem" Raytracing braucht man die Trickserei irgendwann nicht mehr, aber es ist wie gesagt sehr zu hoffen, dass die Entwickler/Gameengines für die "RTX-off"-Einstellung trotzdem noch so lange möglichst tief in die Trickkiste greifen, bis Raytracing wirklich zum Standard geworden ist und jede Mittelklassekarte das mit links schultert. Sonst könnten Spiele bald für die allermeisten Spieler sehr hässlich aussehen.
Hier wurde doch auch ein Video von AMD gepostet. Okay, das war RT auf ihren Profikarten, aber es sollte nichts entgegensprechen das sie diese Technologie auch auf ihren Consumerkarten bringen. Als Early Adopter (Bulldozer, HBM) sind sie oft genug auf die Nase gefallen, so das es mich nicht wundert das sie diesen Schritt nicht gegangen sind. Wenn Nivida jetzt als erstes losprescht und AMD nur noch auch den fahrenden Zug aufspringen muss... bin mir sicher das AMD die passende Technologie auch liefern könnte wenn sie wollten.
Sollten die großen Publisher aufgrund der Ressourceneinsparung dann ihre Teams zur Verwendung von RT drängen, dann könnte sich das schneller durchsetzen als erwartet.
W
Wadenbeisser
Gast
Das ist doch bereits Teil des DisplayPort Standards, wenn auch optional und wird bereits dort ignoriert.Oneplusfan schrieb:Was ich auch interessant finde: Wird Turing HDMI 2.1 haben? Wenn ja, würde das dann Adaptive Sync Unterstützung bedeuten?
Das ist ja eine Spezifikation von HDMI 2.1, damit wäre Nvidia praktisch gezwungen auch Adaptive Sync zu unterstützen.
Jetzt ist halt die Frage, inwiefern man mit nem Freesync Monitor davon profitieren könnte
Also selbst wenn, ich sehe keinen Grund warum sie auf einmal bei HDMI eine Unterstützung einbauen sollten anstatt es weiterhin zu ignorieren.
Mcr-King
Admiral
- Registriert
- Juli 2016
- Beiträge
- 7.210
DriveByFM schrieb:Was mich noch interessiert, warum Nvidia jetzt auf NV Link setzt, klar die Verbindung hat höheren Durchsatz, aber dafür das SLI eigentlich für tot erklärt wurde... Die NV Link Brücke kostet 85€ XD https://www.nvidia.de/geforce/buy/
Würde schon gerne wissen ob sich da jetzt was verbessert hat oder immer noch die alte Leier ist.
ganz einfach für RT benötigt man Bandbreite wie für HDR deswegen denke mal vielleicht waren sogar zwei RTX2080ti im Einsatz. ;-)
Ergänzung ()
ZeT schrieb:Hier wurde doch auch ein Video von AMD gepostet. Okay, das war RT auf ihren Profikarten, aber es sollte nichts entgegensprechen das sie diese Technologie auch auf ihren Consumerkarten bringen. Als Early Adopter (Bulldozer, HBM) sind sie oft genug auf die Nase gefallen, so das es mich nicht wundert das sie diesen Schritt nicht gegangen sind. Wenn Nivida jetzt als erstes losprescht und AMD nur noch auch den fahrenden Zug aufspringen muss... bin mir sicher das AMD die passende Technologie auch liefern könnte wenn sie wollten.
Sollten die großen Publisher aufgrund der Ressourceneinsparung dann ihre Teams zur Verwendung von RT drängen, dann könnte sich das schneller durchsetzen als erwartet.
Nicht wirklich so lange es Konsolen nicht können aber mal sehen.
Wadenbeisser schrieb:Ich bin eher von Microsoft enttäuscht das die sich auf den Mist einlassen anstatt einen eirklichen Standard zu verabschieden der für alle gilt.
Es gibt einen Standard der für alle gilt! Wo hat sich Microsoft auf etwas eingelassen?
ZeT
Vice Admiral
- Registriert
- März 2008
- Beiträge
- 6.943
Mcr-King schrieb:Nicht wirklich so lange es Konsolen nicht können aber mal sehen.
Warum sollte das direkt mit Konsolen zu tun haben? Nvidia gräbt mit RT im professionellen Grakamarkt mit ihren Consumerkarten.
Die Welt besteht aus mehr als nur Gaming. Okay, nicht im CB Forum aber es gibt auch noch die Welt da draußen.
Suito
Lt. Junior Grade
- Registriert
- Dez. 2011
- Beiträge
- 430
kristwi schrieb:Allein schon die Fertigung ist von 16nm auf 12nm und außer den Shadern ist auch der VRAM schneller...
Durch die Fertigung kann Nvidia den mehr Shader draufpacken und die Shader verbrauchen weniger, ändert aber primär nichts an der Leistung.
Bei den VRAM hast du natürlich Recht. Hier ist es schwer etwas zu sagen.
Zieht man als Vergleich die 1080 und 180 11gbs herran, so hat man gleiche Shader und Takt bei 5000Mhz zu 5500Mhz Speichertakt.
In den Benchmarks gab es zwischen 0% und max. 5% perfomance gewinn, der durchschnitt sind 2-3%.
Auch wenn es komplett neuer Speicher ist, erlaube ich mir mal einfach auf GDDR5X Niveu zu rechnen.
Somit wäre der Takt von 7000 Mhz ein Gewinn zwischen 0-10% im besten Fall.
Also würde ich vermuten das die RTX2080Ti im besten Fall zwischen 20-30% mehrleistung liegt, bei non-RTX Games.
ZeT
Vice Admiral
- Registriert
- März 2008
- Beiträge
- 6.943
xexex schrieb:Es gibt einen Standard der für alle gilt! Wo hat sich Microsoft auf etwas eingelassen?
Vergiss es. Versuch nicht einem religiösen Fanatiker einzureden das es Gott nicht gibt.
Es wurde ja schon oft genug erklärt das RT kein prop. Mist is den weder MS noch NV erfunden haben. NAch der tausendsten Wiederholung sollte man verstanden haben das es die Leute nicht interessiert.
Frei nach "was interessieren mich Fakten, ich hab mir meine Meinung schon längst gebildet."
Man stelle sich vor AMD hätte eine VEGA RTX released... dann würden alle in Jubelarien ausbrechen weil sie den Stein der Weisen gefunden haben. ( außer sie würden 1200€ verlangen - dann wären sie der Evil schlechthin und NV der Verfechter des kleinen Mannes)
Simpl3Moe
Ensign
- Registriert
- Okt. 2008
- Beiträge
- 222
Lars_SHG schrieb:...bitte was?
Jeder der eine Grafikkarte hat, will das maximum herausholen. Nicht jeder übertaktet auch noch zusätzlich, ja - aber darum ging es ja auch nicht, aber was macht es denn für einen Sinn, eine leistungsstarke Grafikkarte zu kaufen und diese dann nur mit 90% Last laufen zu lassen? Das was der Hersteller als max. vorgibt das wird auch genommen!
Die Handvoll Leute die sich andere Profile basteln um Kleinstgehäuse nicht zu überlasten oder aus anderen nachrangigen Gründen dürften wohl absolut in der kleinsten Minderheit sein.
.....
Richtig nur war das nicht Inhalt meiner Anmerkung.
Das Max bezog sich auf das Max Profil was AMD mitliefert. Von dem wird in jedem Test abgeraten, weil es nur Energie verbrennt.
Natürlich versuchen die meisten die maximale Leistung aus der Karte zu bekommen, aber das ist bei Vega nun mal eher weniger Spannung. Das Max Profil von AMD ist völlig daneben.
DriveByFM schrieb:Was mich noch interessiert, warum Nvidia jetzt auf NV Link setzt, klar die Verbindung hat höheren Durchsatz, aber dafür das SLI eigentlich für tot erklärt wurde...
Die Consumer Grafikkarten sind in erster Linie Resteverwertung von professionellen GPUs. Dort gibt es NVLink für die Kommunikation unter den Chips, in erster Linie für Berechnungen und Deep Learning.
https://fuse.wikichip.org/news/1224/a-look-at-nvidias-nvlink-interconnect-and-the-nvswitch/
https://www.nvidia.de/data-center/nvlink/
SLI spielt da in den Überlegungen einfach keine Rolle mehr und braucht man unter DX12 letztlich sowieso nicht mehr.
https://developer.nvidia.com/explicit-multi-gpu-programming-directx-12
Zuletzt bearbeitet:
DriveByFM
Rear Admiral
- Registriert
- Juni 2008
- Beiträge
- 5.908
acc schrieb:offensichtlich weisst du nicht mal, was ein paperlaunch ist . von einen paperlaunch spricht man, wenn trotz offiziellen verkaufsstart wenig bis garkeine produkte zu kaufen sind.
Danke für die Erklärung, war aber nicht nötig, da ihr anscheinend nicht wisst was Ironie ist. XD
S
Shrimpy
Gast
Pff, du kennst wohl auch nurnoch Vega.HardwareKind schrieb:Weil die Konkurrenz nichts vergleichbar attraktives mehr produziert.
Er meint ziemlich sicher die letzten 10Jahre der AMD GPU sparte, und da stimmt es nunmal das sich nichtmal bessere AMD GPus besser verkauft haben. NV hat IMMER mehr verkauft auch schrott DIEs wie die der GTX260.
Einzig die 5800 konnte was reißen, es wurden trotzdem mehr GF100 verkauft.
Ähnliche Themen
- Antworten
- 93
- Aufrufe
- 15.173
- Antworten
- 230
- Aufrufe
- 30.395
- Antworten
- 133
- Aufrufe
- 18.457
- Antworten
- 19
- Aufrufe
- 3.110
- Antworten
- 46
- Aufrufe
- 11.936