News GeForce RTX 2080: Nvidia deutet Turing für Spieler im Video an

@Precide also 1070 (teils 1070Ti) Niveau kannst du schon jetzt mit der RX Vega 56, 1080 Niveau mit der RX Vega 64 haben.

Zudem wird Navi mit Sicherheit schneller werden als die aktuellen Vega Ableger.

Von daher, etwas populistisch dein Beitrag.

Natürlich muss AMD etwas tun, denn NVIDIA (man mag sie lieben oder hassen) wird in Sachen Leistung sicherlich nicht nachlassen.

Dass heißt aber nicht das man völlig fernab aller Fakten argumentieren muss.

Mit ein klein wenig UV sind die Vegas gute, schnelle und leise GPUs. Die Preise stimmen auch wieder.

Liebe Grüße
Sven
 
  • Gefällt mir
Reaktionen: Acedia23
Acedia23 schrieb:
Du erwartest also ernsthaft, dass Navi unter der Leistung einer Vega64 liegen wird? Das glaubst du doch wohl selbst nicht.

Navi wird ein Polaris-Nachfolger... Und kein Highend.
 
StefVR schrieb:
Man kann Nvidia vorwerfen, die Monopolsituation...

Wieso wird der Begriff "Monopol" in diesem Forum eigentlich von so vielen hier ständig falsch und offenbar beliebig verwendet? Es gibt kein Monopol bei Grafikkarten.
 
  • Gefällt mir
Reaktionen: SVΞN
Naja, man steigert von RTX zu RTX GPU-Generation dann broeckchenweise die Raytracing-Leistung um maximal abzukassieren, passt, Respekt, guter Plan, nVidia ... die gruenen Lemminge werden dann vermutlich Schlange stehen, um mindestens ein RTX Exemplar abgreifen zu koennen :D.

Da bin ich 'mal gespannt, was denn die erste RTX-Generation ueberhaupt wird leisten koennen bzw. was da an (Raytracing-)Mehrwert aus den Karten (ueber deren Lebenszeit) zu holen sein wird (bzw. wann diese limitieren werden) und ob das den gemunkelt steilen Aufpreis (die naechste massive Preiserhoehung im GPU-Bereich nach Einfuehrung der Titan-Serie von nVidia?) rechtfertigen wird koennen (ausserhalb der nVidia-Fanbasis).

Nun, ich denke einige (nicht wenige) haetten sich lieber den naechsten Schritt hin zu kompromissloser UHD/4K-Leistung gewuenscht (auch im Hinblick auf einen zukuenftigen Monitorkauf sowie AR/VR) als einen Einstieg jetzt in Raytracing (zumal man schon eine Weile der Marktentwicklung/CPUs leistungstechnisch limitierend hinterher hinkt).

Die Umbenennung von GTX in RTX ist natuerlich marketingtechnisch wirklich perfekt getimed (zumal AMD/RTG in absehbarer Zeit nichts vergleichbares in der Pipeline haben duerfte), keine Frage, und wenn man Raytracing jetzt hyped und (mit oder ohne mediale Hilfe) als naechstes grosses Ding etablieren kann, dann immer noch ueber Jahre hinweg mit der (um Raytracing-Optimierung broeckchenweise erweiterten) altbackenen Kepler-/Maxwell-Architektur die Kundschaft wird melken koennen (zumal die Shrinks der Noden ja leistungs-/effizienztechnisch die Rohleistung schrittweise immer noch anheben werden koennen), ist alles in Butter ... wirklich eine Lektion in auf Effizienz getrimmte Gewinnmaximierung waere das dann.

Bleibt zu hoffen, dass man AMD/RTG dann nicht durch die Bank (in allen Leistungsklassen) endgueltig (kuenstlich durch anfangs ueberbewertetes Raytracing) auf die Plaetze verweist, wenn Raytracing wirklich trenden sollte, und der Anschluss nicht verloren geht (AMD/RTG hoffentlich wird nachziehen koennen in dem Bereich).
 
Zuletzt bearbeitet:
cor1 schrieb:
Wieso wird der Begriff "Monopol" in diesem Forum eigentlich von so vielen hier ständig falsch und offenbar beliebig verwendet? Es gibt kein Monopol bei Grafikkarten.

Ganz einfach, weil ein Großteil derer die diesen Begriff benutzen, nicht wissen was er bedeutet. Was soll’s, Bashing bis der Arzt kommt. Ist halt gerade so in Mode.

Liebe Grüße
Sven
 
  • Gefällt mir
Reaktionen: cor1 und LamaMitHut
m.Kobold schrieb:
Physx muß ja auch nicht über die GPU berechnet werden, das kann ja auch weiterhin die CPU übernehmen und die meisten Physx Titel Berechnen auch nur über CPU,
Welche PhysX Titel die den Namen verdient haben berechnen denn über die CPU?
https://en.wikipedia.org/wiki/List_of_games_with_hardware-accelerated_PhysX_support
Hast du dir mal die Performance von Berechnung über die CPU angeguckt?
Selbst meine alte GTX 680 hat mit PhysX in Mafia 2 auf mittel über 100FPS geschafft. Hat man die Berechnung auf die CPU umgestellt, dann kommen aktuelle CPUs eher auf ruckelige 20-30FPS.

Havok verwechselst du mit Ageia. Ageia wurde von Nvidia gekauft und die Software für Nvidia Karten exklusiv nutzbar gemacht. Es ist gemacht um auf GPUs zu laufen und der Renderpfad auf CPUs ist unglaublich schlecht.

Havok ist von Intel/Microsoft und wurde für CPUs entwickelt. Daher läuft es unter AMD und NvidiaGPUs (also auf CPUs egal welche GPU).
Und ja die Technik ermöglich ähnliche Dinge, aber längst nicht so beeindruckend wie damals PhysX. Was auch kein Wunder ist, wenn man sich die Rohleistung von GPUs im Vergleich zu CPUs anguckt.

Wäre phsyX frei gewesen, hätten die Entwickler viel mehr Leistung zur Verfügung gehabt um Physik auf GPUs zu berechnen, zu Zeiten als viele noch dual core CPUs hatten.
Das hätte den Verlauf der Geschichte sicherlich verändert und wir würden uns heute nicht damit zufrieden geben, wenn von der CPU berechnet ein paar Zäune umfallen oder ein Haus in 100 Stücke zerfällt.
Ich hoffe zwar, das die Entwickler die vielen CPU Kerne, die jetzt imme mehr einzug in die Spielerechner finden für sowas nutzen.
Das wäre auf GPUs aber schon vor vielen Jahren möglich gewesen, als die CPUs noch längst nicht so weit waren.
 
Ich würde die 2080 und 2070 eher als Pascal Refreshs vermuten (470mm² Shrink?) und die Raytracings RTX GPUs eher bei Titan RTX und 2080ti. Damit würde man auch den Partnern die teure GPUs kaufen (2000-6000-10000-Sig 500000) oder Ressourcen mieten entgegenkommen und könnte auch die "nicht fehlerfreien" GPUs aus der Produktion besser verwerten. Alles andere wäre tatsächlich eine arge Vermischung, möglich ist es.

Imo lässt sich schlecht feststellen, was nun mit welcher Karte oder Verbünden gerendert und abgebildet wurde. Was mir persönlich nicht gefallen hat, war die teilweise Unschärfe bei den simulierten Schatten. Man sieht auch in der Natur abgegrenzte und weiter aufgelöste (gestreute) Schatten. Vielleicht eine Frage der Zeit oder der vorhandenen Rechenleistung Objekte einzeln (je nach Lichteinfall) abzugrenzen und RT nicht über das gesamte Bild zu streuen. Sieht etwas unnatürlich aus.

Das Hündchen war schon eine schöne Demonstration und seine Schattenkonturen mit Bewegung der Lichtquelle (n), sowie die sich spiegelnden Lichtmuster in der Frontscheibe des Porsche, was sicher Rechenleistung kostet. Leichte Unschärfe war aber imo dort auch im Bild, nach mehrmaligen Klicken im Hintergrund schien die Szene schärfer zu werden.
 
aivazi schrieb:
Also echt, 800 € ist deiner Ansicht nach keine Abzocke bei der Karte ??
Dann haben sie eben die Earlyadopter Releasepreis bis zum eintreten, der GTX 1080 Ti gehalten und die ganze Zeit über den Leuten das Geld aus den Taschen gemolken. Und nicht nur 2 Monate nach Release..

ich bin grundsätzlich ganz bei dir - aber fairerweise muß man auch sagen keiner von uns wird gezwungen sich eine solch überteuerte Karte zu kaufen - man könnte auch mit weniger Details und etwas schlechteren Qualitätseinstellungen gamen und eine billigere Karte nehmen - wer das nicht möchte muß halt leider in den sauren Apfel beissen.

und eines darf man auch nicht vergessen - wenn Amd/Ati in der Vergangenheit mal wirklich konkurrenzfähige Produkte im Graka hatte - hat man auch ganz gut den Preis angezogen bzw mitgezogen (natürlich nicht in dem Masse wie Nvidia einfach weil man nie so konkurrenzlos war)
 
Raytracing erfordert große Anpassungen, also erwartet nicht, dass eine große an Titeln die nächsten Jahre damit erscheinend wird.

Klar wird man ein paar Leuchtturmprojekte großer Publisher unterstützen, aber im Moment definitiv kein Kaufgrund für Gamer. Da könnt ihr besser auf einen 3080 doer 4080 warten, bis sich das "lohnt" (wenn überhaupt).
 
anexX schrieb:
Überrascht mich jetzt wirklich das Nvidia eine so etablierte Marke einfach mal abschafft bzw ersetzt. ^^
Warte mal ab, GTX werden die Karten mit den kleinen Chips ohne Raytracingfähigkeiten. Die PC-Masterrace braucht dann natürlich RTX :D
 
ilovebytes schrieb:
ich bin grundsätzlich ganz bei dir - aber fairerweise muß man auch sagen keiner von uns wird gezwungen sich eine solch überteuerte Karte zu kaufen - man könnte auch mit weniger Details und etwas schlechteren Qualitätseinstellungen gamen und eine billigere Karte nehmen - wer das nicht möchte muß halt leider in den sauren Apfel beissen.

Ja, das ist der Grund warum ich auf einer RX 480 Sitze :D Und das seit schon fast 2 Jahren....

Grundsätzlich kriege ich seit 2 Jahren, rund 60% mehr Leistung für das doppelte Geld einer RX 480.
Oder eben doppelte Leistung für die dreifache Geldmenge....
Das ist einfach nicht akzeptabel....

Edit: Wenn ich meine 7970 GHz als Referenz dafür nehme ist das einfach nur lächerlich was da abläuft.
Die hatte damals 380€ gekostet und hat 40% weniger Leistung als eine RX 480.
Meine RX 480 kostete vor 2 Jahren 250€ und hat 60-70 % mehr Leistung als eine HD 7970 GHz... und das bei 130€ niedrigeren kosten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Iscaran
Ich frage mich langsam wann die Leute endlich verstehen dass es keine „(...) überteuere Karte“ gibt!

Es gibt höchstens eine „(...) mir zu teuere Karte!“

NVIDIA ist momentan der einzige Hersteller der GPU-Leistung auf dem Niveau einer 1080Ti+ bieten kann.

Nun habe ich als Kunde die Wahl.

Gebe ich mich mit 1080er Performance zufrieden? Dann kann ich eine 1080 oder Vega 64 kaufen.

Reicht mir gar 1070er Performance? Gut, hier kann ich zwischen 1070/1070Ti und Vega 56 wählen.

Oder benötige ich unbedingt 1080Ti Performance? Dann muss ich den Preis für das Alleinstellungsmerkmal „Max. Leistung“ auch bezahlen.

Das gleiche gilt für die 2080 (bevor die nächste Ti kommt). Sie wird die höchste Leistung bieten und erst einmal ohne Gegenspieler agieren können.

Jeder der eine 1080Ti/2080 kauft, beweist damit dass diese GPU eben nicht überteuert ist.

Ich bin auch kein Freund von NVIDIA, aber der Laden ist nicht die Wohlfahrt.

Liebe Grüße
Sven
 
  • Gefällt mir
Reaktionen: kidlon
RYZ3N schrieb:
Ich frage mich langsam wann die Leute endlich verstehen dass es keine „(...) überteuere Karte“ gibt!
RYZ3N schrieb:
Es gibt höchstens eine „(...) mir zu teuere Karte!“

Da muss ich dir widersprechen, nur weil einem etwas zu teuer ist heißt das doch noch lange nicht, dass der Preis völlig ok ist, nur eben nicht für einen persönlich.
Die Preise der Grafikkarten steigen stetig - klar steigt auch die Leistung. Aber von einer Generation zur nächsten sollten die Preise eben im Rahmen bleiben.
Nvidia hat das sehr geschickt umgangen und einfach 'neue' Namen erfunden und diese Karten dann eben nochmals teurer verkauft - was viele nicht einsehen/verstehen wollen.


Man sieht es hier auch ganz deutlich: https://www.computerbase.de/2018-02/quartalszahlen-nvidia-q1-2018/
Wenn die Preise nicht unverschämt übertrieben wären, würden die Gewinne nicht direkt mit dem Umsatz nach oben schießen.
 
  • Gefällt mir
Reaktionen: yummycandy, Zockmock, TheBear1517 und eine weitere Person
Von mir aus hätten sie beim Namen auch wieder bei 1 anfangen können, heisst ja auch RTX statt GTX.
Und wer glaubt AMD beschäftigt sich nicht mit RT ist naiv.
Siehe Trailer in dieser News ( schon etwas älter)

www.golem.de/news/computergrafik-amd-erwartet-raytracing-bei-ultra-settings-im-grafikmenue-1803-133464.amp.html

"Letztlich dürfte sich Raytracing aber auf allen Plattformen etablieren, weil es nicht nur schickere Grafik bietet, sondern nach Ansicht von AMD auch die Arbeit der Entwickler massiv vereinfachen dürfte. Statt Umgebungen mit aufwendigen, teils von Hand angelegten Verfahren wie Screen Space Ambient Occlusion (SSAO) oder mit Shadow Maps auszuleuchten, wäre die Sache mit der Brute-Force-Technologie Raytracing in wesentlich weniger Schritten erledigt."
 
@RYZ3N

mir gefällt deine Sicht auf die Dinge, obwohl man anhand deines Nicks und Profilbild eigentlich ein Fanboy erwarten würde :) aber ich sehe es genau so.

Mein bester Kumpel und mein Cousin nutzen derzeit eine GTX 1080 bzw 1080ti zur Befeuerung eines Full HD Monitors. Konnte sie nicht davon abhalten 1-2 Gänge runter zu schalten.

Warum? "Nvidia, längste Balken im Benchmark". Wer hat der kann anscheinend - zumindest bei Nvidia.
 
RYZ3N schrieb:
... Leute endlich verstehen dass es keine „(...) überteuere Karte“ gibt!
Es gibt höchstens eine „(...) mir zu teuere Karte!“
NVIDIA ist momentan der einzige Hersteller der GPU-Leistung auf dem Niveau einer 1080Ti+ bieten kann.
Nun habe ich als Kunde die Wahl.
Gebe ich mich mit 1080er Performance zufrieden? Dann kann ich eine 1080 oder Vega 64 kaufen.
Reicht mir gar 1070er Performance? Gut, hier kann ich zwischen 1070/1070Ti und Vega 56 wählen.
Oder benötige ich unbedingt 1080Ti Performance? Dann muss ich den Preis für das Alleinstellungsmerkmal „Max. Leistung“ auch bezahlen.
Das gleiche gilt für die 2080 (bevor die nächste Ti kommt). Sie wird die höchste Leistung bieten und erst einmal ohne Gegenspieler agieren können.
Jeder der eine 1080Ti/2080 kauft, beweist damit dass diese GPU eben nicht überteuert ist.
Ich bin auch kein Freund von NVIDIA, aber der Laden ist nicht die Wohlfahrt.


Naja, Du koenntest mit den Herstellungskosten per se (und nicht emotional anhand des eigenen Budgets oder was man maximal fuer den Kauf eines bestimmten Modells veranschlagen wuerde) argumentieren und dann waere "ueberteuert" schon passend ;).

Alles eine Frage der eigenen Prioritaeten und ob man meint, das Topmodell eines Herstellers zu "brauchen", oder eben nicht, moegliche Mondpreise hin oder her.

Recht hast Du, nVidia ist nicht die Wohlfahrt und sollen sie doch nehmen, was sie fuer Ihre Produkte wollen, es zwingt einen keiner dazu, das auch zu zahlen und der Markt wird die Nachfrage im Normalfall regeln.

Wichtiger finde ich da schon den Bezugspunkt zum Gesamtmarkt und in welchem Verhaeltnis die beiden Duopolisten zueinander stehen (auch wenn wir eigentlich aufgrund der Verteilung der Marktanteile im Gaming-Bereich aktuell schon eine Art Quasi-Monopol seitens nVidia haben, was u.a. auch auf das unreflektierte Kaufverhalten vieler (in der Vergangenheit) zurueck zu fuehren ist).

Es bleibt zu hoffen, dass viele zukuenftige Konsumenten auch die Marktentwicklung strategisch beim Kauf miteinbeziehen, insbesondere dann, wenn es (von AMD/RTG, evt. irgendwann auch von Intel) ein vergleichbares Produkt und somit eine Alternative zum Produkt des Marktfuehrers gibt, denn das aktuelle Ungleichgewicht ist m.E. schon bedenklich und massiv nachteilig fuer die Preis- und Technologieweiterentwicklung im GPU-Bereich und somit die Kundschaft als ganze.
 
  • Gefällt mir
Reaktionen: Baal Netbeck und Lilz
Lilz schrieb:
Da muss ich dir widersprechen, nur weil einem etwas zu teuer ist heißt das doch noch lange nicht, dass der Preis völlig ok ist, nur eben nicht für einen persönlich.

Da muss ich dich leider enttäuschen, in einer Welt in der, der Preis durch Angebot und Nachfrage bestimmt wird und in der noch immer so gut wie jeder Enthusiast eine 1080Ti/2080(Ti) für 700, 800 oder gar 900 Euro kauft, ist der Preis vollkommen in Ordnung.

Du bist kein Enthusiast? Dir sind 900 Euro zu viel des guten? Dann greif bitte zur 1080, 1070, RX 580 (...)

Heißt nicht dass ich das gut finde, aber so funktioniert unsere Marktwirtschaft/unser System.

Niemand hat tausende von Enthusiasten dazu gezwungen 900 Euro oder gar 1.000 Euro+ (Titan) auf den Tisch zu legen. Haben sie aber und somit den Preis legitimiert.

Liebe Grüße
Sven
 
  • Gefällt mir
Reaktionen: zweitnick und Acedia23
ilovebytes schrieb:
und eines darf man auch nicht vergessen - wenn Amd/Ati in der Vergangenheit mal wirklich konkurrenzfähige Produkte im Graka hatte - hat man auch ganz gut den Preis angezogen bzw mitgezogen (natürlich nicht in dem Masse wie Nvidia einfach weil man nie so konkurrenzlos war)
Du meinst die 48XX Serie, die einen erbarmungslosen Preiskampf eingeläutet hat?
Oder doch die 5870 die monatelang alleine da stand und trotzdem 300€ (UVP!!!) gekostet hat, aber viel teurer von den Händlern verkauft wurde, weil es so wenige davon gab...
 
cor1 schrieb:
Wieso wird der Begriff "Monopol" in diesem Forum eigentlich von so vielen hier ständig falsch und offenbar beliebig verwendet? Es gibt kein Monopol bei Grafikkarten.

Schlaumeierpost hoch 3. Nirgends hab ich Grafikkarten geschrieben. Natuerlich hat Nvidia im highend enthusiastensegement ein Monopol. Wenn du Erbsen zaehlen willst dann nenne es ein Quasi Monopol
 
  • Gefällt mir
Reaktionen: Zockmock
Zurück
Oben