News Nvidia Turing: GeForce RTX 2080 laut Nvidia ~50 % schneller als GTX 1080

@pclovely
Die Treppcheneffekte treten bei UHD genauso auf erheblich mehr Pixeln auf, entsprechend groß kann dadurch auch der Rechenaufwand werden, nur sind die Pixel dann für die meisten so klein das man den Treppcheneffekt nicht allso gut sieht.
 
Mracpad schrieb:
Und die 3080 TI kostet dann zukünftig 2500€. Ich freu mich schon auf die 4080 TI für 5000€. :D
Preis wird schon passen, ist ja schließlich doppelt so schnell wie ne 2080 TI.

Für 100% Leistung (Stand nie zur Debatte, ist klar!) hätte ich auch n Aufpreis bezahlt, aber was NVIDIA da abzieht mache ich nicht mit. Da rüste ich dann doch lieber mit dem GPU Geld erstmal was anderes auf.

Da hast du recht damals für meine gtx 280 350€ gezahlt ein paar jahre später 350€ für gtx 970 nur was bekomme ich heute für 350€ eine gtx 1060... witzlos

Seit der 970 hat sich der preis pro leistung nicht mehr gesenkt sondern ist gleich geblieben

Sprich 100% mehr leistung 100% mehr geld für 140% mehr geld würde ich 140% mehr leistung bekommen sprich eine gtx 1080 ti usw usw usw
 
  • Gefällt mir
Reaktionen: fox40phil
Wadenbeisser schrieb:
@pclovely
Die Treppcheneffekte treten bei UHD genauso auf erheblich mehr Pixeln auf, entsprechend groß kann dadurch auch der Rechenaufwand werden, nur sind die Pixel dann für die meisten so klein das man den Treppcheneffekt nicht allso gut sieht.
Und dann willst du nicht sichtbare Effekte glätten? Wozu, genau das macht doch die KI, sichtbare glätten. Eben nicht mehr wie früher alles glätten!
 
@pclovely
Nicht sichtbar ist wohl etwas übertrieben denn bestimmte Sachen sieht man dennoch, sie sind lediglich nicht mehr so gut sichtbar.
Ein Klassiker dunter den fast immer sichtbaren und störenden Effekten dürften Durchlaufende Treppche Stufen sein die an leicht schrägen Kanten von bewegten Objekten auftreten. Meiner Erfahrung reichen @UHD aber bereits die sparsamen Post Effekt Filter um die meisten Treppchen ausreichend zu kaschieren. Deshalb finde ich auch das gewählte Setting für den Vergleich recht fragwürdig.
 
Also ich halte die ganzen Benchmarks 1080ti mit TAA und 2080 mit DLSS für Humbug. DLSS ist kein AA das auf der Karte stattgefunden hat bzw. wird sie dabei schon im Vorfeld unterstützt und gibt nur wieder was andere berechnet haben, daher muss man bei der 1080ti auch AA abschalten wenn es fair sein soll (vor allem unter 4K), welche Spiele wirklich DLSS unterstützen und ob es gleichwertig aussieht weiß noch keiner. Einige Engines haben "Qualitätsprobleme", dann wird es unscharf.
 
@Zotac2012
Ich glaub laut Definition ist ein Neuronales Netz kein Algorithmus da nicht jeder schritt einzeln ausführbar ist.

Und genau so wird das Netzwerk nicht errechnet sondern trainiert/korrigiert bis es funktioniert genau so wenig braucht man dazu Bestimmte Spiele jegliches Bildmaterial ist dazu geeignet solange man das gewünschte Resultat(das hoch auflösende Bild) als Vergleich hat.

Und ansonsten hast du ja nur meine Aussage bestätigt.
 
Wadenbeisser schrieb:
@pclovely
Nicht sichtbar ist wohl etwas übertrieben denn bestimmte Sachen sieht man dennoch, sie sind lediglich nicht mehr so gut sichtbar.
Ein Klassiker dunter den fast immer sichtbaren und störenden Effekten dürften Durchlaufende Treppche Stufen sein die an leicht schrägen Kanten von bewegten Objekten auftreten. Meiner Erfahrung reichen @UHD aber bereits die sparsamen Post Effekt Filter um die meisten Treppchen ausreichend zu kaschieren. Deshalb finde ich auch das gewählte Setting für den Vergleich recht fragwürdig.
Ja natürlich, was sollte die KI anders machen, die erstellt 64 Sample und macht daraus das beste Bild, aber wozu soll sie etwas glätten das nicht sichtbar ist. Normalerweise stelle ich doch hochwertige Filter eher ab wenn ich downsample oder hohe Auflösungen fahre, dass ist ja auch ein Sinn davon.

DLSS entlastet TU eher, zeigt nicht auf was die GPU wirklich leistet, es ist ein Feature das nutzbar sein wird aber keins, das ich selbst kontrolliere, wenn es eingeschaltet ist, muss ich mit den 64 Sample leben die mir ein Supercomputer oder ein Cloud Cluster berechnet. Für mich ist das eher Rückschritt mit Kontrollverlust und kein Fortschritt, wenn dieser Cluster nicht mit den richtigen Daten gefüttert wird.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: aivazi
Hallo zusammen,

@ StefanSch87

StefanSch87 schrieb:
Seit der 970 hat sich der preis pro leistung nicht mehr gesenkt sondern ist gleich geblieben

Das ist so nicht richtig. Für mehrere Modelle mag dies Stimmen, aber im Fall der GTX 1060 Custom Modelle stimmt es hingegen schon nicht mehr. Und wirklich schlechte Custom GTX 1060 gibt es nicht ein einziges. Du hast direkt Custom Modelle ab 260 € bekommen. Außer in der Zeit des Mining Booms nach Weihnachten 2017.

Davor waren z. b. richtig gute Custom Modelle wie die Zotac GTX 1060 Amp! für 270 € zu Kriegen. Nach der MSI GTX 1060 Gaming X die mit Abstand beste Custom GTX 1060. Die GTX 1060 ist auf GTX 980 Niveau, einer Karte, die kurz vor Erscheinen der GTX 1060 noch weit über 400 € kostete.

Dabei ca. 60 Watt weniger Strom verbraucht, mit jedem Custom Kühler nie wirklich laut ist, sehr viel weniger Abwärme entwickelt. Auch viel Sparsamer als die GTX 970 und spürbar schneller. Vom Speicherproblem ganz zu Schweigen, wobei ich das nicht Überbewerten will, denn die GTX 970 war sowieso nie für mehr als Full HD gedacht.

So long...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ZeusTheGod
Turing TU102
SM 72
Cuda Cores 4608
Tensor Cores 576
RT Cores 72
Geometry Units 36
Testure Units 288
Rop Units 96
Memory 384-bit /GHz GDDR6
NVLink Channels 2
 
Wadenbeisser schrieb:
Meiner Erfahrung reichen @UHD aber bereits die sparsamen Post Effekt Filter um die meisten Treppchen ausreichend zu kaschieren. Deshalb finde ich auch das gewählte Setting für den Vergleich recht fragwürdig.

ich spiele in 4K ganz ohne Kantenglättung und vermisse nix.
 
  • Gefällt mir
Reaktionen: nap
@lalelu
Ohne Angaben zu den Vergleichskandidaten leider relativ nutzlos. :(
Geht es um 1080 vs. 2080 dann sind bereits 15% mehr Shader und 40% mehr Speicherbandbreite (normale 1080) im Spiel und die Preisfrage ist mit welcher Taktfrequenz die Modelle wirklich liefen.
Ergänzung ()

pclovely schrieb:
Also ich halte die ganzen Benchmarks 1080ti mit TAA und 2080 mit DLSS für Humbug. DLSS ist kein AA das auf der Karte stattgefunden hat bzw. wird sie dabei schon im Vorfeld unterstützt und gibt nur wieder was andere berechnet haben, daher muss man bei der 1080ti auch AA abschalten wenn es fair sein soll (vor allem unter 4K), welche Spiele wirklich DLSS unterstützen und ob es gleichwertig aussieht weiß noch keiner. Einige Engines haben "Qualitätsprobleme", dann wird es unscharf.
So wie ich das gelesen habe findet das AA bei DLSS schon auf der Karte statt nur werden die erforderlichen Algorithmen von deren Server geliefert und womöglich auch noch aktualisiert.
Ergänzung ()

cookie_dent schrieb:
ich spiele in 4K ganz ohne Kantenglättung und vermisse nix.
Alles eine Frage der Bilddiagonale und des Sitzabstandes. ;)
 
Zuletzt bearbeitet von einem Moderator:
cookie_dent schrieb:
ich spiele in 4K ganz ohne Kantenglättung und vermisse nix.
Genau und das weiß auch die KI, wenn sie richtig trainiert wird. Denke unter FHD rauchen die Cores, weil sie alle Nase lang was zu tun haben, man sucht sich also die tollen Benchmarkvergleiche raus, wo die alte Gen unter 4K einfach nicht gut aussieht und womöglich Deferred Renderer Leistung klauen.

Rohleistungsvergleiche bei Faktoren (1,2,3) sehen anders aus, aber letztlich zählt das Ergebnis, Fair ist es inHouse trotzdem nicht.

Als Testredaktion würde ich unter 4k AA abschalten (1080ti/2080) und sehen ob das Bild unter DLSS genauso scharf wird.
 
Wadenbeisser schrieb:
So wie ich das gelesen habe findet das AA bei DLSS schon auf der Karte statt nur werden die erforderlichen Algorithmen von deren Server geliefert und womöglich auch noch aktualisiert.

Entsprechend ist das ein AA mit Onlinezwang ?...
Und andere können diese Art von AA nicht benutzen, außer sie legen auch eine eigene Datenbank an und betreiben auch Deep Learning AA...

Das ist doch absoluter Blödsinn, statt die Funktion nativ zu integrieren oder erst zu integrieren, wenn diese Intelligent genug ist um autonom ohne Server zu funktionieren, wird das voreilig integriert um zu zeigen was gehen könnte zum Nachteil für die Konkurrenz weil eben Proprietär ?

AMD könnte es auch machen, aber die Art wie es Nvidia umgesetzt hat, ist absolut Marktfeindlich und von der Konkurrenz kaum zu gebrauchen, außer AMD und anderen Entwicklern werden auch diese Samples preisgegeben. Das werden die aber sicher nicht machen ^^
 
  • Gefällt mir
Reaktionen: Chismon
Vissi schrieb:
Wenn die RTX 2080 das Gleiche kosten würde, wie der Vorgänger 1080, als sie rausgekommen ist, würde ich sie mir kaufen.

Was ist mit euch?
Tut sie doch. Die 1080 ist erst nach 1080ti release günstiger geworden. Beide karten starten zu einem 699 dollar uvp.
Ergänzung ()

BlubbsDE schrieb:
Warum zitiert man so etwas überhaupt? Die GPUs wurden gestern gezeigt. Aber nichts an Benchmarks. Heute werden Folien veröffentlicht. Die GPUs sind vorbestellbar und nicht eine seriöse Quelle kann etwas über die Leistung sagen. Diese Veröffentlichung der PR Materialien seitens nVidia kann man einfach ignorieren. Mehr wohl nicht.

Da ist so etwas wohl deutlich interessanter und diskussionsfähig.

https://www.pcwelt.de/a/rtx-2080-ti-tomb-raider-mit-raytraced-schatten-nur-30-40fps,3452081

Golem hat doch gesagt es passt zu ihren internen benches. Ich glaube cb hat schon selber gebenched oder weis mehr als wir.
 
Für seine aktuelle bekommt man ja auch was. Bei den preisen fällt der preis kaum der alten Generation (1070, 1080er...).
Hab die release preise gefunden:
Founders Edition Custom Design GTX 1080 789 EUR, GTX 1070 499 EUR GTX 980 Ti 739 EUR-GTX 980 538 EUR-GTX 970 321 EUR
 
Zuletzt bearbeitet:
aivazi schrieb:
Entsprechend ist das ein AA mit Onlinezwang ?...
Und andere können diese Art von AA nicht benutzen, außer sie legen auch eine eigene Datenbank an und betreiben auch Deep Learning AA...
Ich würde das mit einem klaren Jein beantworten. :D
Vermutlich brauchst du für den Abgleich eine Online Verbindung aber ich glaube nich das sie für den weiteren Betrieb zwingend erforderlich ist.
 
Pure Existenz schrieb:
Die Hersteller/Entwickler machen immer so schöne Sachen.
Wie so oft, profitieren nur einige Spiele davon.
Wir wissen ALLE, dass viele Games nicht mehr nach gepatcht erden.
Dann hat man ein neues Feature für ein relativ neues Games und man hat doch nichts davon.
Schaut doch mal, was sie bei C&C 3 gemacht haben. Server schon lange down...
Updates?
Das wird auch anderen Spielen so gehen.
Also zählt für mich nur die nackte Grundleistung.
Denn die, habe ich überall!
Du hast die Rt features schon auf den nvidia karten. Nur werden diese jetzt auf externen cores berechnet was zu mehr leistung führt.
 
7700 Spiele auf STEAM 2017 veroeffentlicht, 0.3% aller Spiele bieten RT, datt gibt nix. Leadplattform sind xbox und ps, da haben die Spieleentwickler besseres zu tun als sich fuer die paar ti Besitzer die doppelte Arbeit fuer ihr Spiel zu machen. AMD Hardware in xbox und ps kann kein RT, also wirds auch nicht implementiert von den Spieleentwicklern. Ausser von den paar gesponserten, die es angeblich nachpatchen wollen. RT gibts seit Ewigkeiten, da hat Intel schon viel Geld drin versenkt, mit Null Erfolg.
 
  • Gefällt mir
Reaktionen: Dark Matter und nap
leipziger1979 schrieb:
Dann passt der Preis doch.

Eine gute 1080 kostet knapp über 500,-
2080 + 50% = 750,-
Die 2070 wird wohl dazwischen liegen mit 25% Mehrleistung, wären also 625,-

Aber schon erstaunlich, wie auch schon als die Preise rauskammen, was es für einen Aufschrei gab.
Aber bei den meisten soll scheinbar der Mehrwert gratis von Nvidia bereitgestellt werden weil Nvidia ja ein Wohlfahrtsverein ist.
Seit wann ist ein Preis in Ordnung, wenn die neue Generation mehr Leistung bringt aber exakt in dem Maße auch mehr Kostet?

Wenn das Usus wird kostet in 5 Jahren die 7070 dann 2000 Euro. Und die 7080 Ti 5000.
 
  • Gefällt mir
Reaktionen: Dark Matter
Taktraten abwarten. Die 1080Ti rennt auf 2Ghz auch sich selber 30% weg. So benchmarks kann man immer beschönigen. Würde mich überraschen, wenn das alles so kommt. Eventuell geht dan mein Portemonnaie auch auf...
 
Zurück
Oben