Notiz Nvidia: Erste GeForce RTX 2080 erreichen ihre Käufer

Ich glaube ich weiß wie Mieze sich fühlt. Als ich damals in meiner ersten eigenen Wohnung war, hatte ich dann auch meinen ersten DSL Anschluss. Allerdings war der Router 2 Wochen vor der Freischaltung da^^. Musste dann trotzdem mit 56K weiter surfen. Habe verzweifelt ständig auf den Router geschaut wann der mal Online anzeigt :D

Und jetzt warte ich mal gespannt auf die Testreihen der neuen Geforces
 
  • Gefällt mir
Reaktionen: Asmir0000
Mcr-King schrieb:
Wenn es aber wirklich stimmt ist die RTX20** sowieso Kunden verarsche da Volta stärker ist und 7nm schon im Frühling mit RTX30** kommt.
Im Frühling kommen die kleineren Karten in 8nm LPP, was ein verbesserter 10nm Prozess ist. Ein Shrink auf diesen erwarte ich 2019 aber auch bei den großen Karten.
 
  • Gefällt mir
Reaktionen: Mcr-King
Genau erstmal Test ohne NV Knebel Wesel Käse abwarten leider wird es nicht viele Seiten geben. Genau wie dass geschwafel dass sie so Effizient sind, aber da es ein Modifizierter Volta Chip ist glaube ich dass Pascal besser sein wird.
 
Mcr-King schrieb:
Ähm die werden nicht billiger

iWKad22.jpg


Mcr-King schrieb:
Ray Gedöns ist nichts Neuss hatte Intel auch schon. Davon abgesehen ist es nur halb gar wie so oft, da fehlt einfach die regnen Power.
jiFfM.jpg
 
  • Gefällt mir
Reaktionen: matze313, .Sentinel., gesperrter_User und 3 andere
Ja Ray Gedöns deswegen weil es nur für ein paar Effekte benutzt wird also im prinzip nix neues. Zweitens die Chip grösse verhindert dass sie billiger werden, grade deswegen gibt's keine RTX2060/50 erst mit 7nm von Samsung.
 
Mcr-King schrieb:
grade deswegen gibt's keine RTX2060/50 erst mit 7nm von Samsung.
Was muss ich denn jetzt rauchen um das zu verstehen?
Und wieso sollen die Chips nicht billiger werden wenn man von von 12LPP auf 8Lpp geht, sie werden doch dann kleiner!? Und dann ist ja da noch die Konkurrenz, die hat vielleicht noch keinen Ray, aber weil der ja dann da auch nicht rein muss dürfte es kleiner und somit auch günstiger werden. Und was bleibt einem dann? Ja der Ray muss sich halt mit weniger Gage begnügen. Ich weiß das leben ist schwer :mad:
 
Zuletzt bearbeitet:
Ganz einfach 14nm ist am ende und deswegen geht NV komplett zu Samsung mit der Fertigung. Also so zusagen erst kommen die RTX2060/50 in 7nm, dann die RTX2085/75 und deswegen warten.

Genau so wäre mir echtes RealTime RT lieber aber völlig unmöglich mit der vorhanden Leistung der CPU/GPU.
 
Nein die kommen in 8nm LPP. Und die großen sollten eigentlich auch kleiner werden, aber man hat sich um entschieden weil man damit weniger Ausbeute hätte. Also macht man es erst dann wenn es so gut läuft das man sie hat. Alles nur wegen der Gage.
Abgesehen davon interessiert mich das gar nicht so sehr. Ich geh mal davon aus das sich eine 2080 mit der 1080TI prügeln wird... so im Normalfall. Da gibt es aber noch die ~25 Spiele bei denen DLSS greifen wird.
Wenn ich das jetzt richtig einschätze musst du 8xSSAA aktivieren (oder mehr) um auf die gleiche Bildqualität zu kommen. Ab jetzt wird das Spiel unfair aber gerecht (welch ein Widerspruch) :p
 
Naja warten wir mal auf Intel die hassen NV und wollen ja zurück kommen und wenn zwei Freesync unterstützten gibt der dritte vielleicht nach. Davon ab gesehen egal wie der Käse heißt im Prinzip sind sie sich sehr ähnlich egal ob Samsung, Intel oder TSMC.

Nur hat Samsung mehr Kapazitäten da sie nicht viel fremdfertigen im gegensatz zu TSMC.

Tja und Intel naja 10nm am Ar*** deswegen Samsung.

DLSS klingt spannend aber glaube nicht dass es auf Mainstreams alias RTX2060/50 laufen wird wie DXR. Deswegen erstmal echte Tests ohne NV Beschränkung abwarten.
 
Da muss ich dich leider enttäuschen, denn praktisch jede Seite (auch Heise) hat ein NDA unterzeichnet.
Sonst könnte man morgen noch keinen Test rausbringen.
Auf den Rest geh ich mal nicht ein....
 
Nur ein Test ohne DXR ist doch irgendwie halb gar sorry oder etwa nicht.
 
Noegge schrieb:
Neun! Seiten bei der Überschrift: Erste Geforce RTX 2080 erreicht Käufer:confused_alt:

Die Überschrift könnte auch lauten: RTX! Eure Meinungen? Ab ins Forum!

Der Thread wäre zu 60% gleich ;)

Ansonsten wünsche ich @mieze78 viel Spaß mit dem Moped. Noch einmal schlafen ;) Um wie viel Uhr geht es los? Gibt es da schon bestätigte Gerüchte?
 
Das heißt die Kunden die jetzt schon eine RTX 2080 [Ti] haben, können diese noch nicht nutzen, weil es noch keinen offiziellen Treiber gibt? Oder warum gibt es hier noch keine Leistungsnachweise der RTX Turing Modelle, die Privatkunden unterliegen doch keiner NDA?
 
  • Gefällt mir
Reaktionen: Alphanerd
Mcr-King schrieb:
Genau so wäre mir echtes RealTime RT lieber aber völlig unmöglich mit der vorhanden Leistung der CPU/GPU.

Öhm... Klopf, klopf...Gute Morgen...

Alles verschlafen? Die neue Hardware macht die ersten Schritte in Sachen realtime Raytracing. Das ist ja genau der Witz, dass die Kombi RT- Cores und Tensor Cores irrwitzige Leistung bereitstellt, die genau das schaffen.

Die "Rohleistung" der Grafikkarten steigt mit den Hilfschips in der Spitzenklasse von 14TFLOPS auf über 120TFLOPS an. Die neuen Karten haben also das 9-Fache! an roher Rechenleistung (die RT- Cores nicht mitgerechnet).

Grüße
Zero
 
RYZ3N schrieb:
850,— bis 900,— Euro bedeuten für einen nicht ganz unerheblichen Teil unserer Gesellschaft, mehr als die Hälfte ihres Nettolohns.
asus1889 schrieb:
Dann musst du deine Prioritäten anders setzen, ganz einfach.
So schaut’s aus. Raucher, die eine Schachtel am Tag rauchen, gibt es auch in allen Gehaltsschichten, sogar unter Arbeitslosen. Das macht dann ca. 2000€ im Jahr für Zigaretten. So einfach geht das mit Prioritäten. Ich gehöre so zu den Leuten, die wenig in den Urlaub fliegen, wo bei manchen schon mal zwei Monatsgehälter im Jahr drauf gehen. Wenn man will kann man 1000€ für eine Grafikkarte ausgeben, zumindest in Deutschland. Der Bevölkerungsteil, der das nicht kann (z.B. Arbeitslose Alleinerziehende ) und dann noch daran interessiert wäre Geld für solche Technik auszuheben wird eher klein sein. Wenn man gut verdient und dann aber Kettenraucher ist und noch ne Menge anderer teurer Hobbies hat, wird das ggf. schwierig, wenn man alles plus die 1000€-GPU haben will.
ZeroZerp schrieb:
Revolutionär, weil man mit der Rasteriesierung an Grenzen stößt
Revolutionär ist imho nur der Preis...
Was das Teil in der Theorie noch unterm Kühler an tollen Features versteckt, interessiert mich als Endkunden nur, wenn es mich als Endkunden interessiert und es interessiert mich nicht. Ist vielleicht toll für Entwickler und mag in ein paar Jahren echte Vorzüge in Spielen bringen, aber wenn es jetzt nichts bringt, ist es auch jetzt nichts wert. Ich kauf doch nicht für die Zukunft, ich kaufe für die Gegenwart.

ZeroZerp schrieb:
RTX on bedeutet für viele hier 1080P in unter 60FPS. Egal, was es an Gegenbeispielen gibt.
Das lässt sich auch umdrehen. Wenn RTX on bei einem sehr beliebten Spiel, 60FPS @1080p bedeutet, wen interessieren dann die Gegenbeispiele, die im Vergleich zu BFV kaum einer spielt. BFV interessiert eben doch eine menge Leute.
 
  • Gefällt mir
Reaktionen: betzer
@Aphelon
Vergiss nicht die obligatorischen vier Energy Drinks pro Tag :-)

Aber: Aus Prinzip würde ich eben keine 1k€ für ne Graka bezahlen. Egal wie oft ich sie mir leisten kann. Aber ich bin ich auch kein Ultra Grafik Fetischist und kann auch mit Schatten und SSAO auf high spielen und 4x statt 8x Msaa :P
 
Aphelon schrieb:
Das lässt sich auch umdrehen. Wenn RTX on bei einem sehr beliebten Spiel, 60FPS @1080p bedeutet, wen interessieren dann die Gegenbeispiele, die im Vergleich zu BFV kaum einer spielt. BFV interessiert eben doch eine menge Leute.
Du hast Dir meine Posts diesbezüglich nicht durchgelesen. Ich habe einen neuen Bericht verlinkt, wo geschrieben wird, dass Battlefield MIT aktivertem RTX mit über 100FPS in 4K lief....

Und ja- Mir ist inzwischen schon bewusst, wie desinteresssiert die Masse inzwischen bezüglich Technik ist.
Es soll alles einfach nur so immer irgendwie besser und toller hingezaubert werden, am besten kostenlos.
Wie ist völlig egal- Die Technik dahinter ist völlig egal. Auch das was andere wollen ist völlig egal.

Das ist aber nicht die Zielgruppe z.B. einer 2080 RTX TI. Die Leuts, die sich diese zulegen, wissen, was sie da kaufen und auch warum die neuen Features, die den 08/15 Dieter nicht interessieren, für die Zukunft extrem wichtig sind.
Auch wissen sie, dass man schon in absehbarer Zeit deutlich von der neuen Technik profitieren wird.

Dann allerdings wird das Geheule unter den "zurückgelassenen" dann wieder groß sein, weil man ja nun nur auf die neuen Karten hin optimieren würde und man selbst durch Treibermanipulation und faule Softwareentwickler gezielt benachteiligt werde. Auf die Idee, dass die neuen Karten aber durch die Co- Prozessoren mal eben das 9 Fache an Rechenleistung stemmen können, wird dann keiner.

Immer wieder das gleiche Spiel. Die Leute werden es einfach nie kapieren.....

Grüße
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: betzer und -Spectre-
ZeroZerp schrieb:
Alles verschlafen? Die neue Hardware macht die ersten Schritte in Sachen realtime Raytracing. Das ist ja genau der Witz, dass die Kombi RT- Cores und Tensor Cores irrwitzige Leistung bereitstellt, die genau das schaffen.

Die "Rohleistung" der Grafikkarten steigt mit den Hilfschips in der Spitzenklasse von 14TFLOPS auf über 120TFLOPS an. Die neuen Karten haben also das 9-Fache! an roher Rechenleistung (die RT- Cores nicht mitgerechnet).


Ich glaube nvidia auch, dass sehr viel Entwicklungsaufwand in dieses Thema gesteckt wurde, etwas Revolutionäres geschaffen wurde und realtime Raytracing in die richtige Richtung geht aber die Leistung scheint nicht für 4k auszureichen (woran ich mich gewöhnt habe und was mir persönlich wichtiger als RT ist) - selbst mit dem Topmodell 2080TI. Da stellt sich mir die Frage, ist bei den RTX 2070 überhaupt genug RT Power vorhanden um in 30FPS FullHD zu spielen?

Es werden gefühlt die gesamten Entwicklungskosten auf die Early Adopters geladen für eine Technik, die vielleicht erst in der nächsten Generation in ausreichender RT-Leistung zur verfügung steht.

Ich persönlich wollte 60FPS in 4k unter 500€ bekommen - das hat nvidia nicht geliefert.
 
Zuletzt bearbeitet:
Zurück
Oben