Test GeForce RTX 2080 & 2080 Ti im Test: Heute mehr Leistung und viel Zukunft

borizb schrieb:
AMD soll lt.
Leak bis Ende des Jahres 25% schneller sein als Turing.

Shoryuken94 schrieb:
Was die Karten taugen kann keiner genau sagen. Gerüchte zu Vega 20 aka Vega 7nm gibt es ja einige. Angeblich soll der Chip ansich die gleichen Features besitzen wie die aktuellen Vega Chips. Die Leistung soll angeblich bei 20,9 Tflops liegen. Ob man das nun glauben sollte. Naja. ich wäre da vorsichtig. Sollte es aber stimmen Respekt. Damit wäre zumindest die reine Shaderleistung höher als bei Turing.

@borizb: Nicht Schneller, Leistungsfähiger.
Keine Überraschung hier, AMD-Karten haben eigentlich immer mehr Rohleistung, als ihre nVidia Pendants. Bei AMD heißt das noch nicht sonderlich viel. Wenn AMD dann wieder die Speicherbandbreite extra dünn gestalten, verhungern die GPUs schon wieder!
Sie müssen die TFLOPS auf die Straße bringen, das ist der Punkt! Und daran hapert es bei AMD jetzt schon seit einiger Zeit. Und obendrauf kommt noch dieses Drama mit HBM.

BTT:
Ansonsten gefallen mir diese Karten tatsächlich.
nVidia geht in Vorleistung für eine „freie“ Technologie. Und riskiert was.
Erstaunlich und definitiv ein Lob wert.
(Ja klar, sie machen auch wieder jede Menge proprietären Scheiss, aber hey, wir reden immer noch von nVidia)

Ich bin gespannt wie sich das weiter Entwickelt und wie die Konkurrenz mit der MS-Schnittstelle weiter umgehen wird.
Was ich ebenfalls als Positiv empfinde ist die DX12 / Vulkan Leistung der Neuen.
Bei den jetzigen Marktverhältnissen - und wenn die kleinen Ableger 2070 / 2060 ebenfalls gut performen - denke ich wird sich DX12 / Vulkan jetzt weitaus schneller verbreiten.
 
  • Gefällt mir
Reaktionen: Lübke82, Smartcom5 und Dark Matter
Ich mag neue Hardware, hohe Auflösungen und maximale fps so gern wie jeder hier - aber nachdem ich jetzt endlich dazu kam, die verschiedenen Tests zur ersten RTX-Generation zu lesen, komme ich zu dem eindeutigen Ergebnis, vorerst nicht aufzurüsten. Nicht, dass der Effizienz- und Leistungssprung nicht reizvoll wäre, aber zu den aufgerufenen Preisen ... nein, nicht wenn ich eine Pascal-Karte im Rechner habe und nicht wieder mehr zum Zocken von AAA-Singleplayer-Titeln komme.
Mein aktuelles Anwendungsprofil schreit eher nach einer neuen CPU ... die kommt nächstes Jahr dann auch, aber was Grafikkarten angeht, werde ich auf 7nm-GPUs warten.

Bis dahin dürfen die Spieleentwickler gern mehr auf Raytracing setzen - so dass sich das Feature auch lohnt - und AMD Nvidia wieder mehr Konkurrenz machen. Ich hätte gerne mehr Auswahl als RTX 2080 oder 2080 Ti (aka auch eine Radeon im Mix). Und noch lieber Preise sehr deutlich (!) diesseits der 1000 Euro. Muss ja nicht sein, dass Hardware, die ich nur fürs Gaming nutze, die Hälfte der Kosten eines PCs ausmacht, dessen Anforderungsprofil zu nur etwas mehr als 30% aus ebendiesem Gaming besteht.


onkel_axel schrieb:
Da ist man ganz andere Sachen von Nvidia gewohnt.
Bei Pascal hatte man zwischen 30 und 40% bei dem Vergleich zwischen 2 gleich "schlechten" Referenzdesigns.


Unterschied: Pascal kam in neuer Fertigung und stand seinem Vorgänger technisch deutlich näher als Turing (Stichwort "Maxwell-Shrink"). Dass der Effizenzsprung größer ausfiel, ist also kaum ein Wunder, zumal Turing mit zahlreichen neuen Einheiten und mehr Fläche bei trotzdem hohem Takt daherkommt.
Mit 7nm dürfte wieder ähnliches möglich sein wie beim Schritt auf 16nm, diese Node kommt aber eben erst für einen Turing-Refresh oder mit einem "richtigen" Nachfolger.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Big Qwer
DLSS nur für 4K ist doch auch wieder Mist... Also brauche ich nun zwingend noch einen 4K Monitor. Dann Raytracing an und DLSS und ich schaffe 50-80 fps?
Turing dient wohl nur zur Sicherstellung der Innovationsführerschaft und ist gar nicht so sehr für den Massenmarkt vorgesehen. Der Nachfolger hat dann deutlich bessere Aussichten. Softwareseitig wird das alles nutzbar sein, die kleinere Fertigungsgröße macht Chips kleiner und günstiger und die Taktraten steigen hoffentlich auch. Dann kann man über eine neue GPU nachdenken.
Wer jetzt eine GTX1xxx hat und seine Ansprüche nicht massiv steigen, der kann diese Generation ruhig überspringen.
 
Traurig was für Schort Monitore und Grakas zur Zeit produziert werden.

Warten wir mal noch par Jährchen.... so long
 
Sleight88 schrieb:
Sehen spiele mit dlss in full hd wirklich wie 4k aus? Das wäre ja der hammer.
Was Flimmervermeidung und Kantenglättung angeht, darf man schon mit einer gewissen Vorfreude auf die Ergebnisse warten. Wenn diese Ergebnisse dann vorliegen und bewertet werden können, wird abgerechnet.

ABER eine 4K Textur kann numal prinzipbedingt auf einem FullHD-Monitor nicht mit dem gleichen Informationsgehalt abgebildet werden, wie auf einem 4K-Gerät.
 
https://www.eurogamer.net/articles/digitalfoundry-2018-dlss-turing-tech-analysis

hier steht etwas mehr zu DLSS

Indeed, based on a Final Fantasy 15 demo we've had access to, DLSS is increasing performance by 40 per cent and in some respects, it's actually improving image quality.
...
Translated to DLSS, Nvidia's internal super-computer - dubbed Saturn 5 - analyses extremely high detail game images, producing an algorithm just a few megabytes in size that is downloaded via a driver update to an RTX card.
...
We know that this is the case because similar to the temporal injection jittering technique seen in titles such as Spider-Man on PlayStation 4, on every scene cut, there is no data from the prior frame the algorithm can work with. This leaves us with one frame of an untreated image and that means that - yes - DLSS can be pixel-counted. We only have 4K demos to work with but the lower base resolution Nvidia refers to is confirmed at 1440p. This massively reduces the shading power required to produce the base frame, then DLSS steps in to reconstruct the image. It does a remarkable job bearing in mind it only has around 44 per cent of a full 4K image to work with - we have a bunch of comparison images on this page and you can draw your own conclusions..
...
While Final Fantasy is the focus here, Nvidia also released the Epic Infiltrator demo shown at Gamescom 2018. It came in just a day before the embargo lifted, so our time with it has been limited, but we're seeing the same base 1440p resolution and very similar performance uplifts. The challenge in equalling or bettering TAA is somewhat more pronounced here because Unreal Engine's temporal solution is massively improved over what's delivered in Final Fantasy 15. Also muddying the waters in terms of image comparisons is that Epic's demo is very heavy on post-process effects. DLSS still holds up, it still cleans up ghosting and other temporal artefacts seen on TAA.

Das Ganze ist also wohl extrem rechenintensiv und Intern wird Stand jetzt in 1440p gerechnet, anders kämen die Zuwächse auch nicht zu Stande. Da das eben auch so rechenintensiv ist wird man wohl nicht pauschal für jedes Game und jede Auflösung da ein Profil über Geforce Experience oder gar im Treiber anlegen können. Denke die möglichen Optionen werden zunehmen, aber es ist logisch dass man sich für den Einstig für 4K entschieden hat da hier je nach Titel auch die Performance einer RTX 2080 TI nicht für konstante 60p ausreicht.

Auch schafft dieser Tensor Algorithmus ggf auch nichts über 60p sodass es bei kleinen Auflösungen wie FHD und normales 1440p eh wenig Sinn geben würde. Dann rechnet man da eher normales AA rein / SS rein.
 
  • Gefällt mir
Reaktionen: Unnu
1080p auf DSR/VSR 4K mittels DLSS läuft bestimmt nicht wesentlich besser als normal 1080p plus gescheites AA.

4K durch DLSS auf nem 4K screen läuft scheinbar wesentlich schneller als natives 4K auf nem 4K screen.

Also haben nur Besitzer von 4K Schirmen was davon.
 
Toprallog schrieb:
DLSS nur für 4K ist doch auch wieder Mist.
Es scheint das es auch einen 2. Modus geben wird.
Im normalen Modus stellt DLSS einen intelligenten Upscaler dar, der für die Ultra-HD-Auflösung angeboten wird (darunter wären die Performance-Gewinne niedriger, sodass sich ein separates Training laut Nvidia nicht lohne). Darüber hinaus werden Spiele den Modus DLSS 2X anbieten, mit dem das Spiel mit der nativen Basisauflösung (etwa Ultra HD) gerendert und darüber hinaus effektiv geglättet wird.
http://www.pcgameshardware.de/Geforce-RTX-2080-Ti-Grafikkarte-267862/Tests/Review-1265133/4/
 
c2ash schrieb:
Hier mal eine schöne Grafik, wie sich die Performancesteigerungen der letzten GPU-Generationen zueinander verhalten haben.
GPU-Performance-Vergleich über viele Generationen
Das läuft fast analog zu den CPUs. Die Leistungssprünge sind nicht mehr so hoch wie vor 10 Jahren. Es gab schon einige Generationen wo der Leistungsgewinn unter 30% lag.
Warum sollten GPU-Entwickler bei der Entwicklung nicht in die selben Probleme laufen wie CPU-Entwickler? Im Endeffekt arbeiten beide letztendlich mit Silizium und die Rate der verbesserten Herstellungsstrukturen verlangsamt sich nicht erst seit gestern.
Der Gedanke ist prinzipiell richtig, ja …

Komplexität ohne Not
Allerdings darfst Du nicht vergessen, daß tatsächlich immer wieder irgend ein nutzloser bis wirkungsloser Blödsinn in das IP mit hinein genommen wird – welcher oftmals schlicht überflüssig ist und eigentlich vermeidbar wäre – damit die Komplexität künstlich und ohne große Not gesteigert wird und die Fertigung an und für sich unnötigerweise verkompliziert, den Die selbst verteuert und den Fortschritt als solches erschwert. Grundsätzlich verkompliziert das die Maske, den Yield, steigert die Fertigungskosten und damit wird der schlußendlichen Chip grundlos verteuert. Als solches wird die Fertigung wie auch das Endprodukt damit deutlich komplexer und kostspieliger, als es sein müßte.

Des Kunden Last
Durch die anhaltend steigende Komplexität wird nicht nur die Chip-Ausbeute nach unten und damit der Preis in der letztendlichen Fertigung nach oben gedrückt, sondern auch die Leistungsaufnahme und der letztlich vom Kunde für das Endprodukt zu zahlende Preis. Steigende Komplexität und unnötige Teilbereich des Chips – die Zeche zahlt der Kunde, meist sogar mehrfach in Form der Stromrechnung.

Diese Kompliziertheit zelebriert hier insbesondere nVidia. Seit jeher wird bei der Fraktion Grün die Die-Größe künstlich und ohne zwingend nötigen Grund meist rein aus Gründen des Prestige ausgebläht und verkompliziert – die Kosten trägt der Kunde. Bei praktisch jeder Generation versucht‘s nVidia wieder, will mit einem unnötig großen Big-Chip durch die Wand, und daß, obwohl das weder die Fertigung, die Stromaufnahme noch die Komplexität wirklich erlauben.

Und bei praktisch jeder Generation die letzten Jahre fliegt damit besonders nVidia prominent auf die sprichwörtliche Schnauze und hat evidente Probleme mit der Ausbeute. Das war schon prominent bei Fermi so, das hat Maxwell wie Pascall fortgesetzt und selbst wieder heute ist das (schon wieder) der Fall mit Turing. Miserable Ausbeute aufgrund explodierender, weil gewollter Komplexität und damit durch schlechte Yields weil unbedingt Big-Chip – auch hier darf der Kunde wieder verdammt teif in die Tasche greifen. Der exorbitant überzogenen Kaufpreis ist ja in erster Linie gerade kausal der Ausbeute geschuldet, hoffe wir mal …

Teurer Egoismus
Die Folgen sind doppelt teure Produkte, welche nicht nur durch miserablen Yield sondern auch in Folge noch durch durch Knappheit selbst nach der Fertigung abermals verteuert werden. Dabei ist der Grund eigentlich schlicht jener des Egoismus – wenn man es denn einmal so auf einen einfachen Nenner herunterzubrechen versucht.

PhysX etwa und deren Implementierung durch proprietäre und technisch hochkomplex zu fertigende CUDA-Kerne wären beispielsweise überhaupt gar nicht vonnöten, wenn nVidia statt auf CUDA eine offene Implementierung gemäß des OpenCL-Standards in Hardware nutzen würde (und nicht umständlich und kostenintensiv in Hardware zu implementierende Decoder/Encoder für CUDAOpenCL). Der Haken ist bloß, daß wollen sie gar nicht – denn dann hätte man ja keine proprietäre Implementierung mit denen man seine Kundschaft in ein geschlossenes Ökosystem zwingen könnte und gleichzeitig bewußt den Markt spaltet. Auch gäbe es kein PhysX oder GameWorks, mit dem man immer wieder am Punkt der Spieleentwickler (und später in Form der Spiele-Titel) versucht die Spielerschaft und damit den Markt spalten.

Unmittelbare Kosten
Die Ironie ist, daß jene immer wieder von nVidia so künstlich hochgezüchteten Big-Chips mit wahnsinniger Größe trotz alledem hinter flächenmäßig kleineren Dies bei AMD's Grafikkarten zurückstehen und trotz größerer Die-Fläche eine geringere Rohleistung haben. Bestes Beispiel war ja die Fury X, die ja mit 596 mm² für AMD-Verhältnisse zwar auf einem wirklich großen Big-Chip basierte und schier rie·sig war, aber dennoch kleiner war, als es der GM200 mit 601 mm² war, der die Basis für die GTX Titan X ist.

Trotz 1% geringerer Die-Fläche hatte die Fury X mit 8,6 TFLOPs dennoch eine um satte 40% höhere Rohleistung als eine Titan X mit 'bloß' 6,1 TFLOPs. Aber nicht nur das; Selbst die Packdichte konnte AMD aufgrund der relativ geringen Komplexität auf 14,9 Millionen Transistoren je mm² erhöhen, wobei der GM200 lediglich auf 13,3 Millionen kam – das Ganze bitteschön bei i·den·tisch·em Fertigungsprozess! Beide GPUs wurden in TSMC's 28 mm HP aufgelegt.

GameWorks 2.0
Auch Turing ist hier wieder ein paradebeispiel von gestaltgewordenem Egoismus … In Gestalt und unter Vorwand des Fortschritts. Tut mir wirklich leid, aber anders kann man es fast nicht beschreiben, jedenfalls nicht wenn man das Ganze einmal „strictly technical“ vesucht zu betrachten – wie Anandtech immer wieder so treffend beschreibt.

Als wolle man mit aller Macht unbedingt etwas Proprietäres haben, damit man ein Alleinstellungsmerkmal besitzt, um in Folge nicht nur wieder elegant den Markt spalten zu können (weil nVidia-exklusiv), sondern es geht ja nVidia vornehmlich darum, daß die Effekte von GameWorks so langsam aber sicher verebben und die Entwickler nicht mehr wirklich bereit sind, ihre propietäre Technik zu benutzen.

Zwar nehmen die Entwickler die ersten Koffer voll Geld zum Release wohl gerne mit (wer kann es ihnen verübeln?), aber danach sieht man doch immer wieder recht schnell, daß die Spielerschaft schlicht nicht bereit ist, sich diese hinterhältigen Bremsen à la PhysX HairWorks & Co tatsächlich zu geben. In der Folge merken die Studios den Effekt ausbleibender Käufe doch recht sicher.

Und jetzt ist Turing da, um als neueste Reinkarnation von GameWorks das Erbe desselben anzutreten. Diesmal heißt PhysX also nicht länger HairWorks sondern hört auf den Namen RT – made by Tensor. Yay! Nicht!
hhhum15x18.gif

Nicht nur explodierte einmal mehr die Die-Größe und als Folge zwangsläufig implodierte der Yield. Nein, man ist sich Seitens nVidia derart sicher eine marktbeherrschende Stellung inne zu haben, daß man auch gleich noch die Preise für den Testballon Turing mehr als verdoppelt.

Hohes Ross
Warum kein Volta ohne Tensor für den Consumer-Markt? Einfach die RT-Kerne weg und als überraschend kleinen Die (nochmal) auf 14nm, 16nm oder 12nm aufgelegt. Der Chip wäre phänomenal klein und effizient geworden – allerdings hätte man dann wahrscheinlich unweigerlich zugeben müssen, daß Maxwell 4.0+RT, pardon! Turing im Kern nichts anderes ist, als eine Rückentwicklung von Pascal 2.0 Volta als Maxwell 4.0 Turing in den Endkunden-Markt. Ich komme so langsam selbst durcheinander!

Ich finde bei entsprechender Effizienz wäre die architektonische Basis aber mal sowas von vollkommen egal gewesen – solange der Fortschritt stimmt, hätte dies Keinem wirklich weh getan. Nagut, wahrscheinlich zumindest Jen-Hsun's Ego auf jeden Fall …

Anmerkung:
Es geht mir hier nicht darum, aufzuzeigen, wer den besseren Chip hestellen kann, sondern darum, daß Chipfläche aus Gründen des Egoismus und der Profitgier sinnlos geopfert wird – und zwar, nur damit man ein Alleinstellungsmerkmal besitzt. Auch spielt in dieser strikt technischen Betrachtung der Fakt keine Rolle, daß AMD die höhere Rohleistung selten bis gar nicht in Performance ummünzen kann.
Es geht mir hier allein darum, daß rein technisch betrachtet die Dies insbesondere bei nVidia ohne Not mit prinripiell unnötigen Ausführungseinheiten vollgestopft werden – auch wenn für solche Einheiten wie CUDA- oder Tensor-Cores in Folge (künstlich und aus Gründen der Wettbewerbsbehinderung) ein Markt im Sinne einer Endanwendung geschaffen werden möge.
Im Kern ist deren Existenz zumindest zum jetzigen Zeitpunkt schlicht nicht nötig und ihre verlustbehaftete Implementierung in Form von in die Höhe getriebenen Yields aufgrund kapitaler Die-Größe rechtfertigt keinesfalls (aufgrund fehlender Anwendung) weder den Preis noch deren bare Existenz – zumidest die nächsten zwei Jahre und erst Recht zu dem jetzt aufgerufenen Preis. Der Beitrag dreht sich denn auch primär formal um die Herstellung, Fertigung und zunehmende Komplexität von GPUs.

c2ash schrieb:

Dieses trotzig rotzige Verhalten !!einiger!! in dieser "Techn-Community" lässt mich an deren geistiger Haltung zweifeln. Nüchtern sachlich ist heutzutage schon lange out. Es ist trendy sich zu empören und sich entitled zu fühlen und sich quasi als Opfer von XY darzustellen. Da drängen sich Leute quasi selbst in eine bevormundete Stellung um dann zu sagen "wie können die mir nur sowas antun". Selbstständiges, verantwortungsvolles und gegenüber anderen Leuten respektvolles Denken und Handeln ist nur noch selten anzutreffen. Emotionen übernehmen den Verstand und somit sind keine sachlichen Diskussionen mehr möglich.

Ich finde den Zustand in diesem speziellen Bereich der Tech-Community wirklich traurig und erschütternd.
Pfui deibl.
Großes Lob an dieser Stelle hiefür! Trifft wie so oft den Kern der Sache.
birth28x23.gif



In diesem Sinne

Smartcom
 
Zuletzt bearbeitet: (Technik, Typo und anderes Theoretisches. ;-)
  • Gefällt mir
Reaktionen: Herr Melone, Piep00, chilchiubito und 3 andere
denkbar wäre ja dass man das 4K DLSS Bild wieder auf 1080 / 1440p downscaled aber auch das ist recht sinnfrei. Vermutlich ist es eher das Seitenverhältnis das aktuell statisch ist.

Für Ultrawide 3440x1440p würde das ganze noch Sinn ergeben, man müsste es halt antrainieren.
 
Unterm Strich kann man festhalten, dass DLSS 4K Bildqualität in etwa zur Leistung von 1440p bringt. Das ist doch schon mal ganz ordentlich für die 4K Schirm Besitzer und macht die Auflösung wesentlich spielbarer.

Für 1080p/1440p Besitzer wird es wohl keinen wesentlichen Unterschied zu traditionellen AA Verfahren machen, da man wenn übrhaupt über Downscaling fahren müsste um dabei zu sein.
 
Irgendwie ist das ganze noch alles etwas verwirrend. Teilweise wird DLSS 2x als eigener Modus beschrieben, teilweise nur als erhöhte Qualitätsstufe, die meisten Reviews lassen sich dazu im Detail gar nicht aus. Gibt ja auch noch keine Software.

Entwickleraussagen zu RT sind auch recht widersprüchlich hinsichtlich Implementierungsaufwand und Performance. Und letztendlich sind die Treiber noch nicht ganz fertig, die FEs "quälen" einen mit unnötigen Lüfterdrehzahlen.

Ein paar Monate lasse ich die Turings noch entspannt reifen, dann gönne ich mir ein paar Follow-up Reviews und überlege nochmal. Irgendwann muss ich aber von meiner 980 weg, soviel ist sicher.
 
Unnu schrieb:
@borizb: Nicht Schneller, Leistungsfähiger.
Keine Überraschung hier, AMD-Karten haben eigentlich immer mehr Rohleistung, als ihre nVidia Pendants. Bei AMD heißt das noch nicht sonderlich viel. Wenn AMD dann wieder die Speicherbandbreite extra dünn gestalten, verhungern die GPUs schon wieder!
Sie müssen die TFLOPS auf die Straße bringen, das ist der Punkt! Und daran hapert es bei AMD jetzt schon seit einiger Zeit. Und obendrauf kommt noch dieses Drama mit HBM.

Wo hat den AMD mal die Speicherbandbreite extra dünn gestaltet? Das ist dich viel mehr eine Spezialität von Nvidia (GTX 680, 980, 1080...) Rohleistung sagt halt in Bezug auf Gaming wenig aus. Gibt ja durchaus Anwendungen die die Architektur, auch von Vega, gut ausnutzen.

Das Problem bei Vega (wie auch bei Fiji) ist die Auslastung der Shader in Spielen, besonders bei geringeren Auflösungen.

Wenn AMD wirklich die Leistung über den Takt gesteigert hat, dann dürfte Vega 7nm als Gaming Karte auch gut was reißen, selbst wenn die Shaderauslastung nicht besser wird. Die Vegas skalieren ja schon nicht so schlecht mit dem Takt. Wenn jetzt einige hundert mhz drauf kommen, kann da schon einiges gehe. Aber ich denke nicht, dass Vega 7nm für Spieler kommt, leider.

Und welches HBM Drama? Richtig eingesetzt hat HBM schon ziemliche Vorteile. Fiji hatte wegen HBM1 ein 4GB Limit, Vega hat aus Kostengründen nur zwei Stacks, aber Vega 7nm wird die erste AMD Karte, wo HBM richtig eingesetzt wird massive Geschwindigkeitvorteile liefert.

Aktuell finde ich Vega so spannend wie nie zuvor. Im Bereich zwischen 350 und 500€ sind es in meinen Augen die spannensten Karten.
 
mieze78 schrieb:
Woher kennst du die Lagerbestände?

Bitte nicht als Nörgelei verstehen, aber immer dieses "ich habe da mal was im Internet gelesen und nun muss es so sein" ist meiner Meinung nach etwas albern!
Ganz einfach, weil das bekannt ist.
Mit anderen Worten, die Lagerbestände aufgrund massiver Fehlspekulation sind keine Unbekannte.
mieze78 schrieb:
Jensen läßt sich das RT Feature gut bezahlen, wie einst zu T&L oder SM 4.0 Zeiten.
Das kommt in der Tat noch erschwerend hinzu, ja.


In diesem Sinne

Smartcom
 
Zuletzt bearbeitet:
@Krautmaster Wobei man die bisherigen Ergebnisse zu DLSS mMn immer noch mit einer gehörigen Portion Vorsicht genießen sollte.
Bisher sind das noch keine 'Real Word' Ergebnisse, sondern nur Demos und Benchmarks. Der FFXV Benchmark ist z.B. nach Gamers Nexus Meinung eigentlich gar nicht zu gebrauchen. Den entsprechenden Artikel, warum das so ist, müsste ich noch mal suchen.

Der Gedanke hinter der Technik ist aber trotzdem mit das Interessanteste an der neuen Architektur. Bloß empfinde ich 1440p als Ausgangsbasis schon... weit unten angesetzt. Hätte da eher mit 1600-1800p und dann via DLSS auf 4k gerechnet.

Naja, die Zeit wird zeigen, wie gut, schlecht, nützlich oder unnütz DLSS ist. Zumal man hier auch nur den Vergleich mit TAA hat. Gibt ja noch genug andere AA Methoden, die weniger Leistung kosten oder optisch mehr bringen.

@Shoryuken94 In wie fern soll Vega in 7nm denn die erste AMD Karte sein, wo HBM richtig eingesetzt wird? Und warum erhoffst du dir genau dadurch Leistungssprünge? Hab ich da irgendwelche News oder Gerüchte verpasst?
 
Zuletzt bearbeitet:
Ich möchte mal auf einen Umstand hinweisen, der mir erst jetzt aufgefallen ist.

Wenn ich mir die 1080ti vs. die 2080 anschaue ( hier ), so fällt auf, daß die 2080 erheblich weniger CUDA Cores TMUs, ROPs hat und auch noch weniger Speicherbandbreite.

Da muss ich dann sagen, daß die 2080 dann extrem gut abschneidet - hier kann man dann auch die Effizienz sehen, wie viel besser die Architektur sein muß, damit das möglich ist.

Ob einem der Preis jetzt gefällt oder nicht, steht auf einem anderen Papier. Aber technisch ist die Karte schon ein ziemlicher Wurf...
 
  • Gefällt mir
Reaktionen: Dark Matter
Schrank schrieb:

Wie kommt man auf so nen Quatsch? Da ist vllt ne Mehrleistung von 5%. Warum vergleicht ihr alle (inklusive CB) die 2080 mit der 1080? Die 2080 steht ja wohl im Vergleich mit der Ti. Oder vergleicht ihr auch Äpfel mit Bananen wenn auf der Apfelkiste Bananen steht?
 
  • Gefällt mir
Reaktionen: pio!
mfJade schrieb:
Oder vergleicht ihr auch Äpfel mit Bananen wenn auf der Apfelkiste Bananen steht?
Mit was soll man die 2080Ti denn dann vergleichen? Die 2080 ist genau das, was die 1080 ist, der zweitgrößte Chip der Generation.
 
  • Gefällt mir
Reaktionen: Dark Matter und devastor
Nein. Das ist quatsch. Nur weil NVidia keine vergleichbaren Chips rausbringt muss man nicht zwingend auf dem Namenschema basierend Tests rauswerfen. Da hat jemand eindeutig nicht zuende gedacht. Man muss schon - wie es auch der gesunde Menschenverstand suggerieren sollte - Preisbasierend testen. Nur steht da dann die 2080 nicht mehr so toll (30%) da. Weil sie gegen die 1080 Ti - gern auch übertaktet, nicht mit 30% auftrumpfen kann.
 
  • Gefällt mir
Reaktionen: pio!
Verzeiht bitte meine Unwissenheit.
Ich hab' überwiegend den Eindruck, der große Wurf ist's nur für die Filmindustrie, wenn RTX aus wenigen
Daten/Befehlen nur besteht und so eine "brauchbare" Bildqualität entsteht könnte doch glatt
wieder ein "4k-Renderfilm" wieder auf ne olle CD-R passen ?
 
Zurück
Oben