Test GeForce RTX 2080 & 2080 Ti im Test: Heute mehr Leistung und viel Zukunft

Sun-Berg schrieb:
@AshS:

In einem gut belüfteten System sind Radiallüfter nun wirklich nicht mehr nötig. Und das sage ich als Besitzer eines Vega Referenzdesigns. ;)
Denke ich auch, in meinem System also in der Mitte mit Abstand zu allen Komponenten habe ich Kostante 34 Grad. Ich denke es hat sogar Vorteile, da die Luft nicht komplett durch die Karte muss um hinten abgeleitet zu werden, sondern praktisch direkt zu alles Seiten abweichen kann. Muss ja ein Grund sein warum die Karten generell kühler laufen.
 
Bin ich FROH das ich meine Gigabyte Aorus GTX1080TI XTreme Edition vor 2 Monaten mit 4 Jahren Garantie für 570€ gekauft habe! Die läuft aktuell mit 2000/6400...

Heißt so wie die läuft ist die vielleicht 10-15% "langsamer" als die OC 2080TI ... Alleine der Vergleich 570€ zu 1250€ sagt alles aus^^
 
  • Gefällt mir
Reaktionen: DanHot, danyundsahne und BorstiNumberOne
Schafmuhkuh schrieb:
Also Stand jetzt wird die 2080 in den Regalen liegen wie Blei.

Quasi minimal langsamer als eine Custom 1080Ti bei auch noch vorhandenen Aufpreis.

1) leider nein. Ich wette die Leute kaufen die tzd. wie warme Semmeln weg.

2) Eine Custom 1080ti ist vllt sogar schneller, bzw. je Game bist bei +-5-10%.
Und vergiss nicht den Vram.

Naja die 2080 ist lächerlich und überteuert. Aber jedem das seine :)
 
  • Gefällt mir
Reaktionen: DanHot
Vitec schrieb:
Und warum soll die 2070 kein DLSS können. Eher wird es so sein, dass sie vielleicht nicht so viel Geschwindigkeitsgewinn erzielen kann da sie weniger Tensor Cores besitzt.
Bleibt noch der Preis der 2070 mit 640€ der auch schon wieder nahe einer 1080Ti ist als negativpunkt.

weil DLSS 4k vorbehalten ist, alle auflösungen drunter werden nicht unterstützt... und eine 1080/vega64 kann kein 4k flüssig darstellen bei neuen games ;)

fazit: lieber ne 1080/vega64 kaufen wenn man "nur" diese leistung brauch, spart 150-200€ :)
 
@DanHot
Du musst es nicht lesen.
Genau das ist mein Text.
Übernimm Eigenverantwortung für dein handeln und jammer nicht wie ein Baby und fühl dich als Opfer meines Textes. Da hast du dich jetzt quasi selbst als überführt. Genau du bist einer dieser Kandidaten die mein Text betrifft.
Glückwunsch....YMMD.
 
raphe schrieb:
4K kannst du auch mit deiner 1080(ti) haben. Für mich hat die RTX 2080 keine Existenzberechtigung. Da zahle ich lieber 250€ weniger, hab gleich viel FPS, 11 statt 8GB VRAM und verzichte auf die neuen "Features" (GTX 1080ti)[...]

Streng genommen verzichtest du momentan ja gar nicht auf irgendwelche Features. Raytracing und DLSS laufen ja beide noch nicht...
 
  • Gefällt mir
Reaktionen: CBL und raphe
Ich bin mal gespannt, wann Nvidia die neuen "Features" ala RTX und DLSS wieder fallen lässt.

Bisher habe ich diesbezüglich nur negatives erlebt: Nvidia Vision 2 (Wurde beerdigt von Nvida), Physix (Tod), Hairworks (Tod), G-Sync (Tod - Bzw. nur in massiv überteuerten Monitoren mit mäßiger Hardware), SLI mit mehr als 2 Karten (Seit der neuen RTX Reihe ebenfalls begraben).

Rein vom Feature Support her, könnte ich nicht mit dem Kauf einer GTX 2080 TI ruhigen gewissen leben. Gerade weil die Karten so teuer sind, rechne ich damit, das die "neuen" Features schneller wieder verschwinden als sie erschienen sind - Weil eben Nische und für Spieleschmieden daher irrelevant.
 
  • Gefällt mir
Reaktionen: s0UL1, Piep00, Smartcom5 und 2 andere
Für den Preis einer 2080 kriege ich eine 1080 TI Aorus Xtreme, die vermutlich schneller ist. Nur meine Vernunft hält mich noch vom Bestellen ab ("So viel Geld gibst du nicht für eine zwei Jahre alte Karte aus."). Leider wird die auch nicht billiger werden.
 
Danke für den Test CB, angenehmer Lesestoff !
 
  • Gefällt mir
Reaktionen: russianinvasion
EchoeZ schrieb:
Nix is mit "Twice the Performance of the previous Generation" und noch weniger die auf der Webseite angepriesenen, 6x schnelleren Leistung

mcsteph schrieb:
Lol, 6 mal mehr Leistung

Also zu meiner GTX 1070 bekomme ich mit der RTX 2080 doppelte Leistung (je nach Game und Auflösung).

Lol, habt Ihr echt gedacht man bekommt nur eine Generation später 6 mal mehr Leistung? Also wenn die GTX 1080 = 100 FPS schafft dann mit der RTX 2080 = 600 FPS möglich sind!?
Das bezieht sich, wie hier schon gesagt wurde, auf RT. Man muß Werbung auch verstehen können....
 
Luxmanl525 schrieb:
Hallo zusammen,

ich habe jetzt ziemlich alle deutschen Tests durch. Aus meiner Sicht wird einmal mehr das treffendste Fazit von Tom`s Hardware gezogen. Im besonderen ist deren Test mit Abstand der ausführlichste, einmal mehr.

Der Kollege "Igor Wallossek" hat einmal mehr ganze Arbeit geleistet. Und einmal mehr findet man von der reinen Information her da Sachen, die man in sonstig keinem einzigen Test findet. Das Schlußfazit ist deutlich differenzierter. Die Ambivalenz, welche mit den Neuen RTX-Modellen einher geht, wird sehr schlüssig dargelegt bzw. aufgezeigt.

So long...

und einmal mehr verstehe ich nicht was dein Kommentar hier einmal mehr aussagen soll.... so long.... einmal mehr :evillol:
 
  • Gefällt mir
Reaktionen: dubdevil
nlr schrieb:
*Holt schon mal das Popcorn*
Kleine Kritik, hier als Zitat auf deinen Post, damit es unter den vielen Posts gesehen wird :) :

Die Preisspanne in der Preis-/Leistungsübersicht ist in meinen Augen viel zu hoch gewählt. Diese sollte sich nach der teuersten Karte ausrichten, weshalb 1300€ erstmal vollkommen ausgereicht hätte. Das suggeriert ein nur minimal besseres Rating der GTX 1080 und Konsorten, da sich die Linie zwischen den Karten kaum verschiebt. Beim Leistungsrating habt ihr euch ja auch am Maximalpunkt der 2080 TI FE orientiert, wieso dann nicht auch beim Preis?

Greets
 
Piep00 schrieb:
Auf den ersten Blick können sich Besitzer einer 1080ti entspannt zurücklehnen.

Außer die VR-Gamer, da ist selbst die 2018 Ti gerade mal so ausreichend (nicht mal für alle Games) das Game halbwegs flüssig mit wenig Details abzubilden.

Für VR muss noch sehr viel geschehen, wenn Nvidia so weiter trottelt mit 33 % Mehrleistung jedes Jahr, dann dauert es noch mind. 50 Jahre bis VR wirklich realistisch dargestellt / gerendert wird.
 
  • Gefällt mir
Reaktionen: MRM und Pulverdings
Naja war auch zu erwarten nach der Präsentation ^^ jedem das seine :) mir ist der saftige Aufschlage für proprietäre Features zu teuer mal warten was von AMD in den nächsten Jahren noch (hoffentlich) kommt.
 
Go! AMD, ich hoffe die bringen mal was ordentliches wie bei den CPUs. Die Preise von Nvidia werden schon zu hoch!
 
raphe schrieb:
Ich denke der Shrink auf 6nm wäre das gewesen, was sich die meisten Nutzer hier gewünscht hätten - mehr Leisung, bessere Effizienz, günstigere, da kleinere Dies.

Dann scheinen die meisten Nutzer hier Naiv zu sein oder können nicht lesen.

Shrink: Der Shrink hängt hauptsächlich vom Chipfertiger ab. Wenn der nicht kann, dann kann er nicht. Ob das aus kostengründen oder technischen Gründen ist.

Mehr Leistung: Die neuen Karten haben doch viel mehr klassische Leistung als die alten Karten. UVP vs. UVP ist die RTX 2080 um 60 Euro teuerer als die 1080. Jetzt kommt aber auch noch ne richtige Schippe Mehrleistung dazu die für Raytracing verwendet wird.

Bessere Effizienz: Die neuen Karten sind auch so nochmal effizienter geworden als Pascal.

Günstiger, da kleinere Dies: Wer davon ausgeht dass sich 40 - 60 Dollar Fertigungskostenersparnis auf den Endkundenpreis niederschlagen lebt doch objektiv in einer Traumwelt. Die Releasepreise von Grafikkarten sind nach ganz anderen Kriterien festgelegt. Man nimmt nicht was man muss, sondern was man kann. Ob der Chip in der Produktion 150 oder 200 Dollar kostet ist für den Endkundenpreis zumindest zur Einführung vollkommen Pupe.

Vegas haben bedingt durch Angebot und Nachfrage auch nicht 399 / 499 Euro gekostet. Man nahm nicht was man muss, sondern was man kann.
Und von Apple brauch ich ja gar nicht erst anfangen, oder? 1600 Euro fürs iPhone?
Und Apple ist da nicht mal die Ausnahme. Andere Hersteller nehmen auch Preise für ihre Flagship Smartphones die durch den Aufwand in keiner Weise gerechtfertigt sind.
 
  • Gefällt mir
Reaktionen: Cpt.Willard, xexex und Dark Matter
Moriendor schrieb:
Jeder, der aufgepasst hat bei der damaligen Präsentation und nicht nur hirnlos rumstänkern möchte, weiß genau, dass sich dies auf Raytracing-Szenarien bezog und sogar eher noch konservativ geschätzt ist. Der exorbitante Zuwachs ergibt sich logischerweise aus den RTX Cores, die auf den Vorgängerkarten rein physikalisch schon nicht vorhanden sind.

Ähnliche (und zwar ebenso zutreffende) Werbeaussagen hat es bei Pascal in Bezug auf die VR-Performance gegeben (durch die spezielle Projektionstechnologie, die mit Pascal eingeführt wurde, war ein Vielfaches der VR-Performance gegenüber Maxwell möglich).
Das ist also nicht mal was Neues, dass nVidia die neuen Features entsprechend bewirbt. Wer da "Lol" zu schreibt, bestätigt lediglich, nun schon bei zwei nVidia Präsentationen in Folge gepennt zu haben. Glückwunsch dazu.
Lol, Baue ein Hardware Feature ein was die Vorgängerversion nicht hat und bewerbe es mit 6 mal mehr Leistung.

Jetzt mit AVX2, 100 mal mehr Leistung gegenüber CPUs die nur AVX1 unterstützen
 
  • Gefällt mir
Reaktionen: Iscaran
Mhm...also für mich ist die nix. Das liegt primär daran, dass ich unter +70% Performacesteigerung zu meiner aktuellen HW (1080) nicht kaufe, von den preisen ganz zu schweigen.
Dennoch denke ich, dass der Weg mit RT ein interessanter ist und mangels Konkurrenz mit ggf. alternativem technologischem Ansatz wird der Weg in diese Richtung gehen. AMD kann sich auch gar nicht erlauben hier noch was anderes zu bringen, da, bis es vielleicht so weit ist, die Spielehersteller wohl meist schon auf den RT-Zug aufgesprungen sein werden.

Kurz: mit der folgenden generation (3080/Ti?) wirds interessant (für mich). Damit sollte sich RT auch erstmals halbwegs sinnvoll nutzen lassen, bis jetzt ist es eigentlich nur proof of concept.
 
  • Gefällt mir
Reaktionen: Blade0479
DocWindows schrieb:
Shrink: Der Shrink hängt hauptsächlich vom Chipfertiger ab. Wenn der nicht kann, dann kann er nicht. Ob das aus kostengründen oder technischen Gründen ist.

Ich denke der Shrink ist nicht passiert, da nVidia den TikTok-Zyklus einhalten will und nach einem Shrink (Pascal) ein Architektur-Redesign (Turing) kommt. Wenn man beides mach kann man ja nur einmal Geld verdienen.
 
  • Gefällt mir
Reaktionen: Cpt.Willard
Zurück
Oben