News Turing für Spieler: Nvidia enthüllt GeForce RTX 2070, 2080 und 2080 Ti

Suito schrieb:
Wie ich erwähnt habe muss man die MHz noch einrechnen, allerdings würde bei einer Titan XP ähnliches Rauskommen:
4352 (Shader der 2080ti) * 2 * 1582 (BoostTakt der TitanXP) = 13.769.728 Flops.
Da die 2080TI ja ~14,2 TFlops hat kann man davon ausgehen, dass die Pascal und Turin Kerne sich fast ähneln und kaum Fortschritt bringen, das "Kill-Feature" ist halt der RXT-Part, die restliche Leistung wurde sich über mehr Shader erkauft, nicht durch großartige Architektur Verbesserungen.

Du hast es noch nicht verstanden. Rechne in deiner Tabelle mal noch FLOPS/Shader/Hertz aus. Das Ergebnis wird bei allen GPUs, genaue Taktraten und FLOPS-Anngaben vorausgesetzt, exakt 2 ergeben. Warum? Das ist die Anzahl der Instruktionen die ein Shader bei einem Taktdurchlauf durchführen kann. Über die FLOPS einer GPU auf Architekturunterschiede derer zu schließen ist schlicht falsch. Du hast keinerlei Informationen über Front- und Backend, Cache-Strukturen und was sonst noch die reale Leistung einer GPU beeinflussen kann. TFLOPS sind nur eine theoretische Rechenleistung, um vorhandene Rohleistung zu vergleichen. Was letzten Endes dabei herauskommt ist von vielen anderen Faktoren abhängig.
 
gerzerk schrieb:
Alu-Hüte, wer braucht nen Alu-Hut? Bei Abnahme von zweien gibt es einen gratis.
Es wäre nicht das erste mal das die ältere Generation zurück fällt sobald sie aus dem Fokus der Treiber Entwicklung raus sind. Das muss noch nicht einmal ein künstliches Ausbremsen sein sondern zeigt eher wie Abhängig sie davon sind vom Treiber das optimale Umfeld geschaffen zu bekommen.
 
Hat dieses upscaling, was in der Infiltrator Demo gezeigt wurde, eigentlich auch einen Namen?
 
duskstalker schrieb:
das liegt daran, dass vega ca doppelt so teuer in der herstellung ist wie eine 1080. eine 1080 ist mittelklasse hardware, da mittelklasse chip. die performance ist gut - ändert aber nix dran, dass es kein "high end big chip" ist.

vega ist aber ein "high end big chip" - mit hbm2. würde nvidia vega verkaufen, würde vega preislich zwischen titan xp und titan v liegen.
*und schneller als eine 1080ti sein.

So ist es aber nicht und schließlich wurscht wie gut der Chip ist wenn „Midrange HW“ damit nicht geschlagen werden kann.
 
frost21 schrieb:
Auch den "Smartphone" Vergleich (Apple) finde ich ziemlich banane:
ein Smartphone besteht aus SoC (CPU+GPU+viel mehr), jeder menge Sensoren, Kamera, Bildschirm. Man kauft ein Betriebssystem dazu, eine ganze Softwareumgebung. Das ganze will entwickelt und am Ende in ein Endprodukt gepackt werden. Da ist klar das die Marge sehr hoch sein muss um das alles zu Finanzieren - und Geld will man schließlich auch verdienen.
(Ich bin kein Apple-Freund, aber nur um das mal zu verdeutlichen)

Eine Grafikkarte besteht im Grunde nur aus einem Hauptchip, der in der Produktion maximal 50€ kosten darf und mit jeder Menge Centartikel auf eine Platine gelötet wird. Dazu muss noch ein Treiber - welcher nicht eigenständig lauffähig ist - programmiert werden und fertig ist das Produkt.
(Achtung - sehr überspitzt gesagt).

... Gegen Nvidia ist Apple mmn fast ein Samariter.
Der damalige Riesenchip Fermi (GF100) mit 529mm² Fläche hat 2010 knapp 500$ gekostet - Herstellungstechnisch vermutlich identisch zum jetzigen Turing Chip. ....
Also DDR6 RAM sind keine Cent Artikel. Auch nicht der Kühler. Das Rechtfertig noch lange nicht den überhöhten Preis, aber so billig wir dargestellt ist eine Midrange wir auch highendkarte leider auch nicht. Auch kann man Chipfläche von damals nicht zwingend mit heute gegenüberrechnen. Was ist mit der Forschung, neue Fertigungstechnik, wird die den zum gleichen Preis auch angeboten? Im Grundsatz hast du schon Recht, die Grafikarten sind viel zu teuer nur die Herleitung stimmt nicht. Auch das von Apple ist bescheuert. Apple ist nicht so teuer weil es aus sovielen Komponenten besteht. Und schon gar nicht muss da die Marge höher sein. Das ist Unsinn. Der Preis wird allein durch Angebot und Nachfrage bestimmt. Und die Marge ist der Gewinn, der ist Umsatz Minus kosten. Aber wird nicht durch die Anzahl der Bauteil und Komponenten bestimmt. Wie hoch ist der Gewinn ist wird durch die Nachfrage und das Angebot bestimmt. Habe ich wenig Konkurenz, die natürlich mit dem grad der Komplexität, als mit dem Aufwand der Herstellung und Entwicklung abnimmt, kann ich nürlich auch mehr Gewinn machen. Aber genau das macht ja nVidia ja. Sie haben seit Jahren die führung im Grafikchipbereich. Und auch wen die Karte nicht im Ansatz so Komplex ist wie ein iphone, ist es der Grafikchip selbst doch so Komplex und aufwändig das es keine Konkurenz gibt die ein Äquavilent mit einer besseren Preis leistung anbieten kann. Ganz anders als bei Apple. Auch Apple macht erstklassige Telefone. Aber das macht auch Samsung und andere Hersteller. Nur sind die kompatibel mit den ganzen anderen Applegeräten im Haushalt und auch nicht mit dem Appstore von Apple. Damit hällt sich Apple die Konkurenz auf Distanz. Aber Marge kann man auch mit einfachen Dingen machen, wen einfach die Nachfrage höher als das Angebot ist. Die Komplexität allein ist nicht unbedingt ein Indikator für gewinn. Nimm Raumfahrt. Nichts ist Komplexer. Und die Firmen sind noch weit entfernt große Gewinne ein zu streichen. Alles wird durch den Staat subventioniert.

Knaoti schrieb:
Die wird noch schneller auch mit weniger tflops... Sobald die offiziell erscheint wird nähmlich die 1080ti und der rest per treiber gekillt... (wie immer)

Das ist doch Unsinn. Die 1080ti wird doch schon fast einem Jahr nicht mehr hergestellt. Auch die 1080 läuft aus. Die werden abverkauft und dann vielleicht wird die 2070 und der rest von Turing vielleicht etwas günstiger werden.
 
psYcho-edgE schrieb:
Dass das aber nicht an AMD (und Nv, die nebenbei auch unter höheren Preisen 'litten') lag, sondern an den Händlern aufgrund des Mining-Booms, ist dir hoffentlich bewusst?

Ach quatsch, wird dich eh nicht interessieren. Hauptsache gequatscht und über AMD-Käufer lustig gemacht...

Und noch was: Miner werden immer vor den Gamern den Markt leer kaufen. Die fragen nämlich gern nach der ganzen Ladung vom Laster beim Großhändler, weil sie ordentlich Knete damit machen, je nach Größe der Anlagen.
Warum unterstellst Du mir das? Ich mache mich über niemanden lustig. Ich kritisiere und erinnere nur an die einseitige Darstellung, die hier oft betrieben wird, denn während sich die Leute teilweise in absurder Form aufregen, wie teuer die Karten sind (ohne die Leistung zu kennen, ohne einen Benchmark gesehen zu haben), haben sie die Situation selbst vor ein paar Monaten schon gehabt. (und da hatten sie sogar zeitnah den Test, haben gesehen, dass die AMD Karten deutlich teurer als die nvidia Karten sind, bei bestenfalls vergleichbarer Leistung; die nvidia Karten sind ja dann erst den Preisen von AMD "hinterhergeklettert"). Und da war es je nach "Lagerzugehörigkeit" kein Problem, weil die Karten für AMD "durch den Speicher ja so teuer in der Herstellung seien." Da hat es dann nicht gestört. Darum gehts mir.
Mir geht das Gebashe der jeweiligen Hersteller tierisch gegen den Strich. Niemand wird gezwungen, irgendeine Karte von irgendeinem Hersteller zu kaufen. Trotzdem wird gemeckert, ohne dass man überhaupt Kenntnis über die Fakten hat. Da vergeht interessierten Menschen schon die Lust, sich überhaupt dafür zu interessieren, wenn in 3 Threads über mittlerweile Hunderte wenn nicht Tausenden von Kommentaren überwiegend wegen des Preises gebashed wird. Wenn ihr wisst, wie schnell die Karten sind, was sie tatsächlich bei Verfügbarkeit im Laden kosten und wie sie Preis-Leistungsmäßig im Verhältnis zu den anderen Konkurrenten stehen (Vega 56, 64, 1070, 1080, 1080 Ti), dann kann man sich aufregen, dass die Preise zu hoch sind. Ob es Sinn macht, ist eine andere Frage, aber erst dann kann man die Situation einschätzen. Aber gut vielleicht siehst Du/ihr das anders.

Nochwas, wer sagt dir, dass mit den Vorbestellerpreisen nicht auch die Miner "gemolken" werden sollen, nvidia aber diesmal nicht so "blöd" ist, die Gewinne allein den Händlern zu überlassen? Glaubst Du, wenn nvidia die 2080 zb für 500 Eur anbieten würde, dass der Preis im Miningwahnsinn dann auch beim Kunden ankommen würde? Die 500 Eur Karten würden die Händler dann auch gleich zu Mondpreisen anbieten, um die Ungeduldigen zur Kasse zu bitten (Preorderpreise waren schon immer teurer als die "beruhigten Marktpreise" bei breiter Verfügbarkeit)? Warum sind die 2070er und die 2080er wohl schon ausverkauft, obwohl bislang noch keiner einen Benchmark gesehen hat?
Es hat auch nicht jeder Miner eine gigantische Serverfarm mit LKWladungen voller Grafikkarten daheim. Es gibt auch genug "Hobbyminer", die Mining im kleineren Stil betreiben.
 
Knaoti schrieb:
Die wird noch schneller auch mit weniger tflops... Sobald die offiziell erscheint wird nähmlich die 1080ti und der rest per treiber gekillt... (wie immer)
Unsinn. Gab schon mehrere Seiten (einschließlich CB) die alte Grafikkarten und Treiber getestet haben. Da wurde weder bei AMD noch Nvidia über die Jahre die Karten ausgebremst. Manche haben sogar zu früheren Treibern paar Prozent zugelegt.

Aber das Märchen wird ja immer wieder gern verbreitet. Beweis mal dass es dieses Treiberkill wirklich gibt.
 
Eigentlich muss man mit allem eine Generation warten. Erst wenn die Nachfolgegeneration auf den Markt ist, hätte ich mir eine 1080 holen sollen. Hätte heute für eine MSI Armor 1080 gtx 100,- Euro gespart.

Was bringt das, immer das neueste High-End Modell zu haben? Nischt.

Wenn man 1-2 Jahre wartet, kosten die entsprechenden Zocks auch nur noch die Hälfte und sind ausgereift ohne Bugs.

Habe mir ein gebrauchtes High-End-Board z270 mit 3x m.2 Anschlüsse für 150,- Euro gekauft, was neu 330,- gekostet hat, weil ich beschlossen habe, meinen Prozessor noch bis zur übernächsten Generation CPUs zu behalten, bis DDR5 auf dem Markt ist.
 
Ohhh, 639€ für eine 2070er und über 1000€ für 2080Ti. Das sind ja dann mal Preise a la Apple 2018. AMD ist wohl des Gamers letzte Rettung.
 
Caramelito schrieb:
So ist es aber nicht und schließlich wurscht wie gut der Chip ist wenn „Midrange HW“ damit nicht geschlagen werden kann.

Mein gott wie ich die Diskussion hasse.

Du hast zwei Zangen. Eine aus Edelstahl, eine aus Platin. Die Edelstahl kostet 500€, die Platin 3000€.

Platin ist weicher als Stahl, daher ist die Platinzange schlechter als die edelstahlzange.

Jetzt kommst du her und verlangst, dass die Platinzange unter dem Materialwert verkauft wird, weil die Edelstahlzange besser ist.

Ich sage, die Platinzange wird immer mehr kosten als die edelstahlzange, egal wie gut die Edelstahlzange ist. Es ist nur Edelstahl. Und Platin kostet nunmal was es kostet.

Deshalb wird vega nie günstiger als eine 1070/1080 sein. Die ist zu wertvoll um sie für weniger zu verkaufen, irgendwann ist einfach Ende, da sind die reinen Materialkosten erreicht, und der Puffer bei vega ist Hauchdünn.
Ist egal wie schnell die 1080 ist. Vega kostet was sie kostet. Vega 56 für 399 bei den HBM 2 Preisen sind schon so ca das niedrigste, was man verlangen kann, ohne die Karte zu verschenken. AMD hat keinen Puffer mehr um bei vega die Preise zu senken.

Ist das jetzt verständlich?
 
  • Gefällt mir
Reaktionen: BestinCase
Dazu kommt, dass es auch Anwendungsbereiche für eine GPU außerhalb von Gaming gibt, wo den Leuten nur Vega bleibt, denn sie hat alles mit an Board. Die GTX Karten sind rein auf Gaming ausgelegt und haben dadurch auch weniger Last mit an Board, weshalb sie unter anderem auch weniger Strom verbrauchen. Es gibt allerdings für beide ein Anwendungsgebiet.

Wer eben nicht nur spielt, sondern auch mal hobbymäßig irgendwas anderes betreibt, dem bleibt außer den Profi-Karten eben nur Vega.
 
Ich raff nicht warum die Leute schreiben "High End war schon immer teuer".

Meine GTX 470, damals die 2. schnellste Karte von NV und mit OC auf dem Lvl der schnellsten hat keine 230 Euro gekostet, 4-5 Monate nach Verkaufsstart. Für meine 9700 Non Pro @ >Pro hab ich auch nicht viel mehr gezahlt, für die 8800 GTS G92 mit OC nah an der Ultra Leistung auch nicht.
Gott sei Dank bin ich nicht mehr so heiß aufs Zocken, ist ja schrecklich was man in dieses, übersptizt gesagt Kinderhobby investieren muss heutzutage, was nach einigen Jahren dann aber trotzdem wertlos ist.
 
  • Gefällt mir
Reaktionen: Harlekin1781 und russianinvasion
Suito schrieb:
Die werte kannst du hier entnehmen, und ja für mich ist es ein Co-Prozessor, auch wenn er den größten Teil des die einnimmt.
Ein Co-Prozessor ist eigentlich ein eigener Chip.

Die RT-Cores sind aber in die GPU integriert, also streng genommen ist es kein Co-Prozessor.
Vermutlich meinte er das!
 
Rockstar85 schrieb:
Lass mich raten, du bist Jung?
AMD hatte mal früher 50% Marketshare und dennoch wurde nur Nvidia gekauft, selbst beim Fön oder G80 Generation hatte AMD zu gute Produkte um sie zu vernachlässigen, aber virales Marketing und Fanboys sind eben schlimmer als Fakten.
Als AMD GCN eingeführt hat, war die HD 7770 das was heute die 750Ti ist..Dennoch wurde lieber Nvidia empfohlen.. Es ist eben so: Nvidia hat den längsten Balken, also sind sie überall die besten.. dein Posting beweist meine Aussage sogar.

Und Nvidia wird einen teufel tun und seinen Jüngern weniger Geld aus der Tasche ziehen, sie zahlen es ja bereitwillig. Ist wie der Abhängige der sagt: Hey super, danke dir, dass du mich ausnimmst

Lustig...

Ich bin 85er Jahrgang, ich nehme an auf Grund der 85 in deinem Nick, haben wir einen ähnlichen "Erfahrungsschatz". Ich will jetzt nicht meine Grafikkartenhistorie auflisten, diese umfasst weit mehr als 20 Grafikkarten darunter tummeln sich auch zahlreiche ATI/AMD Karten. Ich lasse mich gewiss nicht von dir als Fanboy abstempeln, nur weil dass deiner löchrigen Argumentation am Besten zuspielt.
Ich persönlich habe mich nur noch nie für low-Budget Karten interessiert. Es ist mir zwar nicht entgangen dass die HD 7770 ein tolle Budget Karte war, grundsätzlich lag mein Kaufinteresse aber mehr im Bereich von 250-400€. Hierbei achte ich auch auf das Preis-Leistungsverhältnis wenn auch im etwas höherpreisigen Segment.
Vor knapp über zwei Jahren erwarb ich eine GTX 1070 für 409€. Die bis dato teuerste Karte die ich mir gegönnt habe und retrospektiv kann ich behaupten, das war mit der beste Kauf dicht an dich mit ATI Radeon 9500@9700 non-pro und Nvidia 8800 GTS 512. Auch die HD6950@70 fand ich, als Besitzer dieser, zu damaliger Zeit, eine super Karte. Ich will nicht auf einen von beiden herumreiten aber beide hatten Generationen die etwas Murks waren, AMD mit der HD2900 und selbst die anfangs hochgelobte R9 390, entpuppte sich später als tickende Zeitbombe, welche nicht selten nach 2 Jahren oder früher den Geist aufgaben.
Ich habe selten eine Karte länger als eine Generation behalten aber die GTX 1070 ist eine die man jetzt locker noch ein weiteres Jahr halten kann. Nun warum ist das so? Weil AMD einfach nichts vergleichbares bieten kann, ohne dass man Kompromisse eingehen muss. Das ist nun mal Fakt. Die Rx 580 kam erst ein Jahr später und weil langsamer, nicht von Interesse gewesen. Das Zeitfenster für eine Kaufentscheidung zwischen GTX 1060 und Rx 580 war des Mining Booms geschuldet relativ kurz, dafür können die Hersteller aber nichts, profitiert haben sie aber beide zu Lasten der Gamer. Lange Rede kurzer Sinn: Nvidia tut nur das was der Markt ermöglicht und bedauerlicherweise hat AMD derzeit wenig Spektakuläres zu bieten. Nur ist das nicht unbedingt im Sinne unser aller.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: B.XP
@Sester
Nö die schnellsten Karten waren die dual GPU Karten und die spielten Preislich nochmal in einer ganz anderen Liga.

@Hill Ridge
Ein Coprozessor muss kein eigener Chip sein, rate mal welchen Namen die FPU der CPU noch hat. ;)
Es ist einfach nur eine weitestgehend eigenständige Recheneinheit die z.B. bestimmte Berechnungen schneller ausführen kann als die primäre Recheneinheit.
 
Vissi schrieb:
Was bringt das, immer das neueste High-End Modell zu haben? Nischt.

Türlich "bringt" das was. Nämlich dass du die aktuellsten Spiele mit der bestmöglichen Power spielen kannst. Mag für dich nicht interessant sein oder ein Anliegen. Aber für jemand anders schon. Und dann zahlt man halt den Preis. Ist doch nix worüber man ein allgemeines Urteil fällen müsste was "falsch" und "richtig" ist. Das ist alles Präferenzen basiert und das ist halt alles subjektiv.
 
  • Gefällt mir
Reaktionen: Galatian und .Sentinel.
Zurück
Oben