Test GeForce RTX 2080 & 2080 Ti im Test: Heute mehr Leistung und viel Zukunft

Noerd schrieb:
Wenn keiner kauft, werden die Straßenpreise fallen.

Das kommt ganz drauf an wie groß das Angebot ist. Wenn die Produktion niedrig bleibt wird sich auch am Preis nichts ändern. Schließlich will Nvidia erstmal Pascal abverkaufen (in dieser Hinsicht machen sie alles richtig) und erst dann wird man die Produktion von Turing hochfahren und man wird Preissenkungen sehen können.

Eigentlich müsste ich froh sein, dass Nvidia es mir so einfach macht und auf mich keinerlei Druck ausübt da für mich Turing einfach nicht attraktiv ist. Aber die allgemeine Richtung in die wir hier steuern gefällt mir ganz und gar nicht.
 
  • Gefällt mir
Reaktionen: Verak
ZeroZerp schrieb:
Wie im Technik Diskussionsthread bereits angemerkt, ist DXR/Raytracing bei den großen Engines bereits implementiert bzw. es wird dran gearbeitet. Das ist schon die halbe Miete.
Ich bin bereits davon ausgegangen, dass es in der engine oder gar der API integriert ist. Ein solches Feature von Grund auf in eine Engine zu integrieren wäre nochmal eine ganz andere Hausnummer. Ich rede davon, dass sich die Entwickler schon nicht die Mühe machen werden, für einen Bruchteil des Gesamtmarktes ein alternatives Beleuchtungssystem zu konfigurieren. Auch Raytracing ist nicht mit einem Knopfdruck implementiert und konfiguriert.

Publisher sind nicht gerade versessen darauf, sich zusätzliche Arbeit aufzuhalsen. Das muss sich schon lohnen, was eine flächendeckende Marktdurchdringung dieser Technologie vorraussetzt. Sprich, in nahezu jedem Gaming-Sytem - Konsole oder PC - muss Raytracing drin stecken. So lange das nicht der Fall ist, wird Raytracing einigen Blockbustern vorbehalten bleiben, bei denen NVidia den Publishern und Entwicklern einen großen Teil des Aufwandes abnimmt.


ZeroZerp schrieb:
Man braucht kein aufwendiges Beleuchtungs/AO/Verschattungssystem mehr, keine Lightprobes,voxalisation contact hardening shadows, fake lights und und und.
Diese Arbeit werden die Entwickler aber noch auf Jahre ohnehin machen müssen, wenn sie nicht 99 Prozent des Marktes außen vor lassen wollen. Und dabei wird es auch in den allermeisten Fällen bleiben, so lange nicht auch Konsolen sowie die Mid-Range-GPUs beider Hersteller Raytracing unterstützen. Raytracing käme dann noch als zusätzlicher Aufwand oben drauf.


ZeroZerp schrieb:
Es werden also GERADE die Entwickler und Hersteller sein, die ein großes Interesse haben, dass sich das neue Zeug durchsetzt.
Natürlich haben sie ein großes Interesse daran, dass sich Raytracing durchsetzt, aber dafür werden sie nicht hunderte oder tausende Arbeitsstunden pro Titel investieren, von denen am Ende der nur ein ganz kleiner Teil des Publikums etwas hat. Wie ich oben schon sagte muss Raytracing flächendeckend verfügbar sein, damit Publisher und Entwickler diesen Schritt gehen. Da AMD keinen Zugang zu dieser Technologie hat, und auch die kommende Konsolen-Generation mit Raytracing nichts zu tun haben wird, ist eine vollständige Marktdurchdringung dieser Technologie noch ferne Zukunftsmusik.


ZeroZerp schrieb:
Für nachhaltiges Wirtschaften und zur Sicherung der Firma muss der Eigenkapitalanteil und die Kriegskasse prozentual größer gefüllt sein. Natürlich will man zudem mehr verdienen, wo es möglich ist. Preise steigen nunmal im Normalfall... Alles wird teurer.
Nvidia-Produkte haben sich weit jenseits der natürlichen Inflation verteuert. Wir sehen zumindest im Hochleistungs-Segment die Entstehung eines Monopols, mit all den unerquicklichen Nebenwirkungen von denen stetig ansteigende Preise nur ein Ärgernis sind.


ZeroZerp schrieb:
Ich sehe, wenn ich mir die Handelslisten anschaue schon eine Möglichkeit, dass sich die Dinger auf knapp unter 1000,-€ (ist beim Käufer eine psychologische Grenze) einpendeln könnten.
Was um einige hundert Euro über dem Preisniveau der 1000er-Serie liegt, und die war teurer und preisstabiler als die 900er-Serie.
 
SKu schrieb:
NVIDIA kann froh sein, dass sie Kunden ohne große Ansprüche haben. Das kenne ich aus dem Berufsleben ganz anders. Da zeigen die Kunden mal ganz schnell den Mittelfinger, wenn sie nicht zufrieden sind und kommen auch nicht wieder.

Das setzt voraus es gibt eine Konkurrenz!

Im Berufsleben erlebst du unfertiges tagtäglich, am deutlichsten zu sehen bei öffentlichen Projekten. Wie lange hat es gedauert, bis Toll Collect funktioniert hat? Ob der Eurofighter oder der A400M jemals fertig werden, steht noch immer in der Sternen und über den BER oder den Stuttgarter Bahnhof brauchen wir gar nicht mehr zu reden.

Es wir heutzutage nur noch Bananenware verkauft, Bananen beworben und mit Bananen gehandelt. Der Kunde wünscht es sich aber auch so, fertig bedeutet gleich veraltet. Wer will schon etwas kaufen, wenn etwas größeres und tolleres versprochen wurde.

Bestes Beispiel hier im Forum. Wieso nicht einfach in 1080p spielen? Es "muss" doch heutzutage 1440p oder 2060p sein, sonst ist man veraltet! Im gleichen Zug beschwert man sich dann darum, dass RT angeblich nur in 1080p funktioniert.

Von öffentlichen Projekten abgesehen, entscheidet der Kunde noch immer mit seinem Kaufverhalten. Wer zwingend jetzt unbedingt 4K haben wollte, sollte sich nicht beschweren, wenn er für die passende Hardware überproportional teure Preise bezahlen muss. Wer zwingend meint in seinem iPhone 512GB Speicher zu brauchen, bezahlt auch 50% Aufpreis, die Masse kommt hingegen wunderbar noch mit 64GB zurecht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel.
Wenn man mal bedenkt, wieviele Anläufe " richtiges" 3d gebraucht hat und selbst jetzt, wie ich finde, noch immer ein Nischendasein führt, ist der Schritt sich auf so eine offensichtlich anspruchsvolle Technik zu verlassen, ein doch sehr gewagter.
Man soll die Hoffnung ja nicht aufgeben, aber wenn da in den kommenden 6 bis 12 Monaten keine beeindruckenden geraytraceden Spiele kommen, was ja letztlich irgendwie in der Hand der Spieleentwickler liegt, braucht Nvidia gute Argumente.
Wobei mir gerade beim Schreiben bewusst wird, dass Nvidia den Buhmann dann ja ganz schnell an die besagten Spieleentwickler weitergeben wird.
 
Kacha schrieb:
Eine Erklaerung waeren andere Spiele. Allerdings kannst du einen gewissen Bias (bewusst oder unbewusst) nie ausschliessen. Deswegen sind solche Metaanalysen ziemlich praktisch. Falls natuerlich eine Seite kontinuierlich solche Ausreisser hat, dann kann man skeptisch werden. Hat sich da jemand dazu die Muehe gemacht?

http://www.3dcenter.org/news/geforc...ltate-zur-ultrahd4k-performance-im-ueberblick

die 2080 TI ist also über alle Reviewseiten die hier erfasst wurden 35% fixer unterwegs. CBs 32% in 1440p und exakt 35% in 4K sind also nahe an der Perfektion.
 
  • Gefällt mir
Reaktionen: xexex
Ich sehe einfach auch irgendwo ein Problem mit Gsync und Freesync.

Selbst wenn AMD jetzt ein gleichwertiges Pendant zur RTX Generation auf den Markt bringen würde, so hätte ich ein Problem aufgrund meiner Monitor Wahl.

Ich verzichte bei einem >1000€ Monitor ganz sicher nicht auf das Feature schlechthin(Gsync). Umgekehrt ist es genau so. Mit einem Freesync Monitor hätte ich sicherlich eine AMD Karte im System. Man gewöhnt sich einfach zu schnell an die smoothness.

Hier sehe ich Konfliktpotential. Wenn AMD kommendes Jahr eine Karte rausbringt mit 16GB HBM2 und 30-40% mehr Leistung als der größte Turing, so wäre ich trotzdem noch immer eher an Gsync gebunden. Natürlich kann ein Gsync Monitor auch problemlos mit einer AMD Karte laufen, aber ein teures Feature lässt man somit komplett fallen. Hier sollten sich AMD,NVIDIA und Intel nochmal an einen Tisch setzen, wobei das eher nicht passieren wird.

Wenn Intel richtig in den GPU Markt einsteigt, wird der Markt komplett neu aufgerollt.
 
  • Gefällt mir
Reaktionen: Verak
ZeroZerp schrieb:
Wie im Technik Diskussionsthread bereits angemerkt, ist DXR/Raytracing bei den großen Engines bereits implementiert bzw. es wird dran gearbeitet. Das ist schon die halbe Miete. Wenn dann noch mesh- shading bzw. primitive shaders unterstützt werden, so fällt ein ERHEBLICHER Teil der Sorgen und der Arbeit, die ein Entwickler mit der Engine hat unter den Tisch.

In vielen Engines wurde auch eine deutlich bessere Multicore-Optimierung eingebaut, trotzdem nutzen viele der Spiele weiterhin 1-4 Kerne. Nur weil es in die Engine integriert wird, muss es nicht genutzt werden, vor allem wenn es für den momentanen Markt eine Zusatzarbeit ist, wenn eben 98% der Karten im Umlauf kein RT besitzen.
 
Dai6oro schrieb:
Gegenüber den richtig schlechten FEs von Pascal. Das sollte man nicht vergessen. Da kann man getrost nochmal 10% von abziehen.

antürlich aber es ging ja um das Bild auf das er eingegangen is das bei CB mit 32% den größten Vorsprung zeigt. Dass Redaktionen mit FE vs FE testen ist klar und da sinds dann eben +35%.
 
SKu schrieb:
Der Autor von Heise hat mit seinem Beitrag aber recht. Genauso ist es und nicht anders. Die RTX-Reihe scheint völlig überhastet auf den Markt geworfen worden zu sein. Die Features, die die Karten ausmachen, sind nicht nutzbar aber die Karten gibt es bereits.

Der Autor vertritt mit seinem Kommentar seine eigene Meinung, der du anscheinend zustimmst. "Recht" zu haben kann er mit seinem Kommentar nicht, denn dafür müsste er schon genau wissen wieso zum Beispiel Nvidia WIRKLICH die Preise so hoch angesetzt hat und keine Vermutungen anstellen.

Features "die die Karten ausmachen" hat AMD seit Jahren verbaut. seltsamerweise hält sich der Shitstorm über Async Compute oder die GCN Architektur, die ohne DX12, Vulkan und Unterstützung der Spieleschmieden auch nicht nutzbar sind, aber in Grenzen.

Manches benötigt Zeit um implementiert und richtig eingesetzt zu werden, manches verschwindet vielleicht auch wieder in der Schublade. RT wird sogar AMD einen kleinen Schub geben, wenn die Entwickler nun alle nur noch DX12 nutzen.

Anstatt sich nun aber zu freuen um eine neue Technik, die einige Rädchen in diesem Markt bewegen wird. Diskutiert man hier lieber über die überzogenen Preise, obwohl niemand gezwungen wird diese zu bezahlen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel., Oneplusfan, t3chn0 und eine weitere Person
  • Gefällt mir
Reaktionen: Iscaran und exuser0815
xexex schrieb:
Die Anzahl der Käufer, die sich eine Karte für 1300€ kauft ist begrenzt, die RT Technik muss aber Kunden haben um breite Unterstützung zu bekommen und Karten in der Leistungsklasse einer 1060 oder 1050 werden kein RT können.
Für diese Kunden gibt es ja die 2070 und die 2080. Die Turing-Karten werden sicherlich etwas im Preis fallen, aber sicher nicht so, wie sich das hier so manch einer erhofft.
Ergänzung ()

sverebom schrieb:
Kein Entwickler wird sich ohne starke Anreize durch Nvidia ein Bein ausreißen, um Raytracing zu implementieren.
Ich bin kein Entwickler, aber was ist denn, wenn die Studios durch Raytracing eine Menge Aufwand sparen können? Man platziert eine Lichtquelle und den Rest erledigt der Algorithmus, die Tricksereien, die jetzt nötig sind, um die Beleuchtung, Reflexionen und Schatten realitätsnah zu machen, fallen dann doch weg. Das kostet ja alles kostbare und teure Arbeitszeit der Programmierer/Designer. Ist in der Übergangszeit natürlich mehr Aufwand, weil man ja beides machen muss.
 
Zuletzt bearbeitet:
HerrRossi schrieb:
Für diese Kunden gibt es ja die 2070 und die 2080. Die Turing-Karten werden sicherlich etwas im Preis fallen, aber sicher nicht so, wie sich das hier so manch einer erhofft.

Naja, eine 2070 bei einem Preis von 640 € wird den Markt nicht erobern. Wenn eine 2070 schon solch einen Preispunkt hat, bin ich mal gespannt was die 2060 dann kosten wird. Die wird dann vermutlich einen saftigen Preis haben, obwohl sie kein RT besitzt, ganz einfach da es sonst eine viel zu große Lücke geben würde zwischen 2060 - 2070.
 
  • Gefällt mir
Reaktionen: Verak
Luxmanl525 schrieb:
Hallo zusammen,

@ Kenny35



Grundfalsch. Vielmehr bringt Heise die Dinge auf den Punkt. Vor- als auch Nachteile werden sachlich erläutert. Genauso, wie man es von einer guten Journalie erwarten darf.



Wenn für dich das Preis- / Leistungsverhältnis nicht wichtig ist, dann hör bitte auf, andere in dem Bezug abzuwerten. Es gibt glücklicherweise Leute, die nicht zu allem "Ja und Amen" Sagen.

So long....
ich würde an dieser Stelle gerne dir vorschlagen das du bitte damit aufhörst meine Beiträge zu zitieren und durch deine halbgaren Sätze versuchst mich schlechter dastehen zu lassen.

Du willst das nicht ? Gut, warum genau soll ich dann mit etwas aufhören?
 
HerrRossi schrieb:
Ich bin kein Entwickler, aber was ist denn, wenn die Studios durch Raytracing eine Menge Aufwand sparen können? Man platziert eine Lichtquelle und den Rest erledigt der Algorithmus, die Tricksereien, die jetzt nötig sind, um die Beleuchtung, Reflexionen und Schatten realitätsnah zu machen, fallen dann doch weg. Das kostet ja alles kostbare und teure Arbeitszeit der Programmierer/Designer. Ist in der Übergangszeit natürlich mehr Aufwand, weil man ja beides machen muss.

Dann haetten alle Nicht-RTX User eine Grafik wie im Jahre 2000, wenn du NUR RTX implementierst und auf den Rest pfeifst. ;)
 
  • Gefällt mir
Reaktionen: .Sentinel.
xexex schrieb:
Das setzt voraus es gibt eine Konkurrenz!

Im Berufsleben erlebst du unfertiges tagtäglich, am deutlichsten zu sehen bei öffentlichen Projekten. Wie lange hat es gedauert, bis Toll Collect funktioniert hat? Ob der Eurofighter oder der A400M jemals fertig werden, steht noch immer in der Sternen und über den BER oder den Stuttgarter Bahnhof brauchen wir gar nicht mehr zu reden.

Wer steckt hinter Toll Collect? T-Systems und Mercedes, u.a., der Eurofighter fliegt einwandfrei, mit dem A400M bin ich bei dir. Berlin ist klassisches öffentliches Versagen, Stuttgart allerdings DB Debakel.

Ich glaube, die erste Generation der jetzigen NVIDIA kann man auslassen, vor allem wegen der Preispolitik.
 
xexex schrieb:
So sieht auf jeden Fall eine normale Preisentwicklung bei Grafikkarten, wenn sie nicht durch Mining beeinflusst wird:
https://geizhals.de/palit-geforce-gtx-980-jetstream-ne5x980014g2j-a1186788.html
Die Karte ist nach dem Drop am Releasetag ca. 6 Monate lang peu a peu im Preis gestiegen, bis dann die 980ti auf den Markt kam. Nach dem Preissturz war sie wieder 12 Monate stabil im Preis (+-10%), bis die 1080 auf den Markt kam. Was soll man jetzt daraus für die 2080(Ti) ableiten können? Es wird keine deutlich stärkere Karte mehr kommen (so wie 980 zu 980 Ti), auch von AMD ist eine solche Karte nicht zu erwarten, also könnte es durchaus sein, dass die 2080 und 2080 Ti bis zum Erscheinen der neuen Nvidia-Generation stabil im Preis (+-10%) bleiben. Es sei denn, die Karten würden wie Blei in den Regalen liegen, auch nachdem Pascal abverkauft ist, dann wird der Preis sicherlich langsam sinken, bis dann die Kaufschwelle erreicht ist.
 
  • Gefällt mir
Reaktionen: betzer
Dai6oro schrieb:
Das kommt ganz drauf an wie groß das Angebot ist. Wenn die Produktion niedrig bleibt wird sich auch am Preis nichts ändern. Schließlich will Nvidia erstmal Pascal abverkaufen (in dieser Hinsicht machen sie alles richtig) und erst dann wird man die Produktion von Turing hochfahren und man wird Preissenkungen sehen können.

Eigentlich müsste ich froh sein, dass Nvidia es mir so einfach macht und auf mich keinerlei Druck ausübt da für mich Turing einfach nicht attraktiv ist. Aber die allgemeine Richtung in die wir hier steuern gefällt mir ganz und gar nicht.

Da ich keine 20xx brauche, hoffe ich auf gute Preise für ne 1080 :)
 
Zurück
Oben