Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsGeForce GTX 1080 Ti: Schneller als die Titan X für 819 Euro
So sieht es aus - und nicht nur das, in ganz 2016 habe ich nicht ein Game gekauft - nichts was mich interessiert hätte.
Aber ich werde dennoch irgendwann in diesem Jahr eine große Graka kaufen - einfach nur weil ich die Evolution erleben will. Und wenn es sein muss, dann mit Crysis 1 - endlich mal mit allen Extras, höherer Auflösung und wunderhübsch-patch .
wer beim Vergleich GTX 1080 / GTX TITAN X P Full HD her nimmt braucht sich nicht wundern nicht ernst genommen zu werden ... wenn du also die Karten vergleichen willst dann nur mit der schnellsten CPU überhaupt (um CPU Limit zu verhindern) und bei Maximaler Grafikauslastung = hohe Auflösung / max Setting. Genau dann setzt ich auch eine Fury am besten von der R9 Serie ab und genau dann glänzt auch eine TITAN X P. Und wenn man also die passenden Tests her nimmt ergibt sich ein Vorsprung von etwa 27% zur GTX 1080. Denke sowas dürfte bei CB dann auch bei rumkommen wenn man ein vernünftiges Rating bei 4K sieht.
Dann schau Dir doch die Tests an, die fps bei Battlefield 1 bspw. sind sicherlich nicht im Verdacht absichtlich begrenzt worden zu sein unter Full-HD (was auch an den Einstellungen der Testszenarios liegen kann), auch im Vergleich zu dem was bspw. von CB diesbzgl. mit einer Titan X(P) beim Intel CPU Test ermittelt wurde) und ja, für unfähig halte ich diese 4 Testseiten alle nicht, aber das wurde ja indirekt hier unterstellt.
Das kann ich dann nicht ernst nehmen, sorry ...
Natürlich geht es dort um einen GPU und nicht CPU-Test, und auch wenn letztere gerade trenden, was werden denn hier für Maßstäbe angelegt? Der jetzige AMD CPU Test hat es doch bewiesen, dass viele die jetzt eine Intel 6700K oder 7700K CPU haben bei Spielen immer noch die Speerspitze darstellen (oft auch schneller als ein 6950X sind) und genau diese CPUs werden in Test verwendet und genau mit diesen wird gespielt.
Es geht hier nicht um das technisch machbare bei diesen Grafikkarten-Tests sondern um ein realistisches Anwendungsszenario, welches den Großteil der Nutzer widerspiegelt (selbst wenn die Leute sich eine Titan X(P) kaufen, werden sie nicht zwangsläufig auch eine 6950X CPU haben).
Wenn das klar ist, dann dürfte man auch diese Tests/Benchmarks ernst nehmen können und nicht respektlos diese so einfach als nutzlos abtun, nur weil es nicht ins eigene Weltbild passt. Wie gesagt, man kann es nicht jedem recht machen ... 4 verschiedene Testseiten, mit Spielen 4 unterschiedlicher Publisher/Entwickler und aus 4 verschiedenen Genres ... ist es allgemeingültig (?), natürlich nicht; gibt es einen Anhaltspunkt(?), ich denke schon.
Was hatte ich geschrieben, bis ca. 30% bei 4K/UHD (natürlich in Abhängigkeit der Titel), das deckt sich doch mit Deiner Einschätzung, oder nicht?
Lars_SHG schrieb:
wie mir? ok, auf so ein Niveau lasse ich mich nicht herab, aber wenn Du Dich technisch nicht auskennst und Benchmarks nicht lesen kannst, dann ist es eben so.
Schau Dir doch einfach mal die von Dir verlinkten Benchmarks genauer an. Und ob ein Game nVidia optimiert ist, bedeutet doch nicht das es auch reichlich CPU-Leistung benötigt!?!
Von herab kann wohl keine Rede sein, zumal habe ich die Benchmarks nicht gemacht sondern als Beispiele angeführt und wenn diese Dir nicht passen bzw. Deines Erachtens keine Daseinsberechtigung haben, ist das Dein Problem und zeigt wie wenig Ahnung Du hast (oder mehr als all die Tester von 4 Hardwareseiten, was eher unwahrscheinlich sein dürfte, denn die machen das ja aus Jux und Tollerei ).
Wie bereits oben erwähnt, es geht bei diesen Tests nicht um Extrembeispiele, die sind schön und gut zur Veranschaulichung was möglich ist, sondern um konkrete Anwendungsszenarien für eine GTX 1080(Ti) oder Titan X(P) und die werden doch all diese Tester bestmöglich versuchen reflektieren zu können (das unterstelle ich einmal gutwillig), oder? Die habe ich mir nicht ausgedacht, auch wenn Du mir das vielleicht gerne nahelegen würdest.
Natürlich bedeutet es das nicht, aber ein nVidia-optimiertes-Bundle-Spiel findet sich bei wie vielen Käufern (?) und ist deswegen wie relevant als Testszenario?
Darum geht es doch, nicht um irgendwelche Tests mit Exotenkonfigurationen (was Spiele oder Hardware angeht) ... das kannst Du vielleicht in einem Fall vorwerfen (im Falle des Watch Dogs 2 Tests wurde auch eine 5960X CPU auf 4.3 GHz laufend genommen, also von einem bewusst die GPU begrenzendem Szenario kann da wohl kaum die Rede sein, eher von einem Idealfall), aber für alle 4, das ist nun wirklich nicht glaubwürdig, sorry.
Da passt der folgende Satz auch ganz gut (entnommen aus dem Tom's Hardware Artikel):
Nvidias neueste Grafikkarte wird zweifellos ausschließlich in High-End-Systemen verbaut werden, von denen einige sicherlich auch mit einer Broadwell-E CPU bestückt werden. Aus Gründen der Vergleichbarkeit halten wir uns dennoch weiter an unseren Core i7-6700K
Für mich macht das jedenfalls Sinn und ich stelle das nicht in per se Frage, das dürfte vielen anderen hier oder anderweitig auch so gehen.
Wenn Dir das nicht aussagekräftig genug ist bzw. reicht, dann können die Tester und ich - durch das zitieren der Ergebnisse - es Dir wohl nicht recht machen, so einfach ist das.
Ergänzung ()
Vitec schrieb:
Es ist egal wenn ich jedes halbe Jahr eine neue Graka kaufen würde würde das der Umwelt nicht schaden weil nicht jeder xy € im Monat hat daher ist immer ein gebrauchtmarkt vorhanden und meine Graka die ich weiterverkaufe werden noch genutzt und die Ressourcen gehen ja nicht verloren. Das Umweltargument würde nur gelten, wenn die Karten auf dem Müll landen würden, machen sie aber nicht, genausowenig wie bei den Autos. Wenn ich mir alle 3 Jahre ein neues Auto kaufe ist das für die Umwelt absolut Banane, vorallem da es sich eben nicht alle leisten können alle 3 Jahre ein neues Auto zu kaufen. Es bestünde nur ein Problem wenn alle so viel Geld hätten sich dauernd neue Grakas, Autos ,(beliebiges Konsumgut einsetzen) zu kaufen und es keinen Gebrauchtmarkt geben würde.
Ja, tut mir leid, das sehe ich eben genau anders herum, denn es macht m.E. einen riesigen Unterschied, ob man ein Auto 3 oder 20 Jahre fährt, und wie viel die dafür viel größer angelegte Produktion die Umwelt belastet.
Wenn Du schon das Autobeispiel bemühst. Mein 13 Jahre alter Jeep (den ich in Kürze etwas nachrüsten werden muss, der i.a. aber ziemlich langlebig ist) ist sicherlich umweltfreundlicher als wenn sich jemand 4x ein Elektroauto in der Zeit gekauft hätte (also 4x so viele Elektroautos dafür produziert hätten werden müssen), wenn es natürlich auch nicht so hip sein mag und man dafür als altbacken gelten mag, und dass Produkte bei diesen kurzen Anschaffungs- und Erstnutzungszeiträumen auf ewig weiter verwendet (also Absatz finden, welches der Gebrauchtmarkt eben nicht gänzlich abfedern kann) oder gar in der Nutzung ausgereizt werden, ist eben ein Irrglaube, weil die Nutzerkette irgendwann (bei GPUs meist nach dem zweiten Nutzer) ein Ende findet oder oft GPUs ungenutzt in irgendeinem Gehäuse ein ungenutztes Rest-Dasein fristen.
Natürlich ist in gewissem Maße eine Rückgewinnung möglich, aber insgesamt ist der Prozess deutlich umweltbelastender, wenn man halbjährig seine GPU wechselt (die Nachfrage/Produktionskapazitäten damit ankurbelt und evt. den Gebrauchtmarkt - der aber von vielen nicht genutzt wird - damit bedient) als wenn man eine GPU bspw. für 4+ Jahre hält/nutzt, das ist doch logisch. Das kannst Du doch schon an Statistiken zur Industrialisierung der Welt ablesen/fest machen, wie hoch die Umweltbelastung etwa vor 100 Jahren war und wie hoch sie jetzt durch die nötige Industrialisierung ist, ein Geheimnis ist das schwerlich.
Das soll jetzt auch kein allgemeines Plädoyer sein, sich nicht mehr Grafikkarten im (Halb-)Jahrestakt kaufen zu dürfen (auch wenn ich persönlich diese Entwicklung ungesund und fragwürdig finde), denn ich weiss nicht wie die Leute in anderen Bereichen Ihr Leben gestalten bzw. wie bewusst die Leute im Hinblick auf Ressourcen und Umwelt einkaufen und ob die Sachen auch wirklich genutzt werden oder die meiste Zeit nur Staub fangen und in der Ecke liegen (es gibt Leute die halten sich mehrere topaktuelle Smartphones, glaubst Du ernsthaft die telefonieren mit 2 oder 3 Smartphones gleichzeitig (?) ... das nur als Beispiel für Ressourcenverschwendung).
Die Lebensweise bzw. deren gesamtheitliches Kaufverhalten kann und will ich nicht beurteilen, zumal GPU-Konsum natürlich nur ein Teilaspekt ist, aber darauf hin zu weisen, sollte ja erlaubt oder gar erwünscht sein .
P.S.: Ich beurlaube mich jetzt erst einmal von dem Thread und denke, ich habe genug Senf dazu gegeben.
Ich denke schon das so ziemlich alles in 4K flüssig laufen wird.
Das sind jetzt erstmal nur annahmen, aber wenn die 1080Ti wirklich ein wenig schneller sein soll (was man so hört) als eine Titan X Pascal, dann kann ich diese doch als Referenzpunkt heranziehen. Dann komme ich, aus diversen Tests eines anderen Hardware Magazins, zu folgender Erkenntnis:
Karte ist immer die Titan X Pascal im Referenztakt, Auflösung ist immer 4K:
Battlefield 4 (0xAA): 90 FPS
Crysis 3 (0xAA): 51 FPS
Far Cry Primal (SMAA): 55 FPS
Hitman (SMAA): 58 FPS
Metro Last Light (0xAA): 66 FPS
Rise of the Tomb Raider (kein AA): 54 FPS
Witcher 3 (kein AA): 59 FPS
Bei bedarf kann ich auch die Quelle noch nachliefern.
Aber wenn wir von dieser ausgehen, dann kann ich doch annehmen dass mit einer 1080Ti auch in 4K alles flüssig laufen wird.
Flüssig ist wie immer Definitionssache. 50 FPS ist okay, aber bei dem Preis würde ich schon mindestens 60 FPS erwarten, zumal die Spiele ja auch schon über ein Jahr alt sind und wohl gemerkt immer ohne AA getestet wurde.
Es wird zwar gerne behauptet, dass es nicht sichtbar wäre in 4k, aber dem ist leider in vielen Spielen nicht so. Watch Dogs 2 und Mafia 3 sind nur 2 Beispiele, bei denen man das sehr gut sehen kann.
Würde auch gern mal einen Benchmark zu Watch Dogs 2 in 4k sehen, denn ich bezweifle ernsthaft, dass die Titan X da auf 50 FPS kommt.
Keine Ahnung - Ich seh das halt echt nicht. Im Studium hatte ich Zeit, aber kein Geld. Jetzt habe ich Geld, aber einfach nicht die Zeit, damit sich so ein Teil auch nur ansatzweise lohnt.
Mal abgesehen davon, dass es gar nicht mehr so viele Spiele gibt, die mich hinterm Ofen hervorlocken würden...
Haha... So sieht es halt echt aus... Hab mir vor 2 Wochen die 1080 gekauft. Glücklicherweise konnte ich die jetzt noch zurückgeben.
Aber statt mir jetzt nochmal die 1080 für 80€ weniger oder gar die Ti für 850+ zu besorgen (bestimmt nicht den Referenzkühler...), kauf ich mir jetzt lieber ein ordentliches Kajak 😁.
Die 2 Wochen mit der 1080 haben mir auf jeden Fall gezeigt, dass es zwar ganz nett ist, aber letztendlich nur 2-3 Spiele wirklich davon profitiert haben... In 4K wohlgemerkt...
Den Rest hat schon die 290X gut bewältigen können. Ein Diablo, Civ oder Total War laufen auch so in 4K... BF1 muss jetzt halt wieder in 2K laufen, so what...
Und wenn die 1180ti draußen ist, stellt die Software mittlerweile deutlich höhere Anforderungen. Merke: Die Hardware folgt den Anforderungen seit jeher mit einem gebührlichem Respektabstand
zumal habe ich die Benchmarks nicht gemacht sondern als Beispiele angeführt und wenn diese Dir nicht passen bzw. Deines Erachtens keine Daseinsberechtigung haben, ist das Dein Problem
Und schon wieder, Fehlinterpretation aufs gerade Wohl.......
Natürlich haben sie eine Daseinsberechtigung - für alle die genau dieses Spiel spielen wollen und sehen möchten wie es mit Konfiguration X oder Y funktioniert.
Deine Interpretation war nur falsch das man mit jedem Game wo eine langsamere GPU zu einer schnelleren aufholt es automatisch an der GPU liegen muss! Und das ist nun mal erwiesener Maßen nicht so. Im Einzelfall auch sehr deutlich an den von Dir selbst verlinkten Benches zu sehen.
819,- EUR hören sich schon mehr nach nV Preisen an. Dachte ich mir fast, dass hier noch was hinzukommt - wie so oft
Dennoch, meine 1080 hatte damals auch knappe 750,- + VK gekostet. Das hier ist halt schon mal mehr High End und setzt sich von einer GTX 1070 deutlich in jeder Hinsicht ab. Bin zwar mit meiner 1070er zufrieden, aber für 4K/VR weiß ich nicht, ob die 1070 ausreichen würde. Nur hab ich sowieso keine Zeit dafür, deshalb kümmerts mich kaum
Artikel-Update:In Deutschland kann die GeForce GTX 1080 Ti seit Donnerstagabend vorbestellt werden. Der Preis beträgt 819 Euro inklusive Versandkosten, die Abnahme ist auf zwei Stück pro Käufer beschränkt. Ein genaues Datum für die Auslieferung nennt Nvidia nicht: „03/2017“ heißt es im Warenkorb. Aktuell ist der deutsche Online-Shop von Nvidia aber nur sporadisch erreichbar.
[Bilder: Zum Betrachten bitte den Artikel aufrufen.]
In den USA ist Nvidia offensichtlich noch nicht so weit, dort können sich Interessenten auch am Freitag nur über Neuigkeiten zur GeForce GTX 1080 Ti informieren lassen. Der Markstart soll in den Vereinigten Staaten in der kommenden Woche erfolgen.
Sobald es der Hersteller erlaubt, wird es auf ComputerBase alle Details zur GeForce GTX 1080 Ti geben.
Ich bin wirklich froh, das nvidia endlich die zukunft anerkennt und diesen kack dvi stecker weglässt (oder weinen gleich wieder welche, weil der so wichtig ist, wie die klinke buchse am smartphone?!)
so kann man endlich mit einer wasserkühlung auf single slot gehen, sofern die passende slotblende beim wasserkühler dabei liegt.
hoffen wir mal, das die custom karten auch auf DVI verzichten und das in zukunft auch auf die kleineren karten (1160ff) übertragen wird.
bleibt nur zu warten bis evga mit der classified um die ecke kommt, dann kann ich meine zwei 980Ti endlich loswerden. das warten hat sich mal wieder def. gelohnt, wie jedes mal eigentlich. kein grund eine 1080 oder titan x zu kaufen.
Sinnvoll ist es den März abzwarten, um zu sehen was die Partnerkarten bringen und was AMD tut.
Könnte gut sein dass aus den 820€ schnell 700€ werden. Oder die AMD GPUs taugen doch was...unwahrscheinlich, aber nicht unmöglich
Also wer heutzutage bei ner high-end Graka noch DVI verlangt gibt das Geld anscheinend am falschen Ort aus. Kein 144Hz 1440p oder 4K Monitor braucht DVI. Wer noch bei 60Hz und 1080p rumgurkt kann sich sowieso ne 1070 für die Hälfte vom Preis holen. Die hat dann auch DVI.
Also wer heutzutage bei ner high-end Graka noch DVI verlangt gibt das Geld anscheinend am falschen Ort aus. Kein 144Hz 1440p oder 4K Monitor braucht DVI. Wer noch bei 60Hz und 1080p rumgurkt kann sich sowieso ne 1070 für die Hälfte vom Preis holen. Die hat dann auch DVI.
Tellerrand und so...
Ich zum Beispiel nutze einen Korea Monitor mit ips und 96 Hz und solange nicht oled, hdr und ähnliches für Monitore da ist, hätte ich nicht vor zu wechseln.
Leider funktioniert der Koreaner nur mit dvi
Ich bin wirklich froh, das nvidia endlich die zukunft anerkennt und diesen kack dvi stecker weglässt (oder weinen gleich wieder welche, weil der so wichtig ist, wie die klinke buchse am smartphone?!)
SL ist mir völlig Wumpe.
Liegt innen bzw. hinten und davon sehe ich nix.
Setrux schrieb:
Also wer heutzutage bei ner high-end Graka noch DVI verlangt gibt das Geld anscheinend am falschen Ort aus. Kein 144Hz 1440p oder 4K Monitor braucht DVI. Wer noch bei 60Hz und 1080p rumgurkt kann sich sowieso ne 1070 für die Hälfte vom Preis holen. Die hat dann auch DVI.
Nur blöd das ich heute keinen Monitor kaufen kann der ein IPS panel hat und keinen glow.
Da kriege ich nur Elektronik Schrott der technisch rückständiger ist als alte Monitore die ich hier habe und sporadisch auch noch nutze z. B. für Vergleichtests.
Das ist völlig unabhängig von den hauptsächlich genutzten Monitoren mit DP.
Ideal wäre für mich DVI+DP an der Karte, aber so ist es nun wie es ist und ich muss damit leben das die Ti es nicht hat.
Der Schritt in die richtige Richtung wäre keine teildeaktivierte TI auf den Markt zu bringen, sondern den Vollausbau.
So werden nur wieder die TI-Leute gemolken und klassisch wie bei der ersten Titan kommt dann zum Ende des Jahres wieder sowas wie eine Titan X Black die vollaktiviert ist und wenig Takt kombiniert mit 16 GB und dann bestimmt kurz darauf eine neue TI mit Vollausbau mit weniger Speicher und dafür mit mehr Takt, dieses vorgehen wäre nicht neu.
BTW: Mit Ende des Jahres meine ich den verdammten Oktober, weil Nvidia mit Garantie dann eine neue TI und Titan auflegen wird xD
Nvidia verdient sich wahrscheinlich mit den teildeaktivierten Chips dumm und dämlich, teilweise steigen auch Leute mit einer GTX1080 um, frag mich nicht wieso
Das die 1080 TI gegenüber der 980 TI wieder siginifikant im Preis gestiegen ist sollte übrigens nicht der Rede wert sein
Was für eine Zukunft? Nvidia setzt schon wieder und immer noch auf den G-Sync Unsinn, der nur von schrottigen Monitoren unterstützt wird. Dann die Zwangsanmeldung bei der völlig aufgeblähten Nvidia Software Namens Nvidia Experience.
Und jetzt 11GB Ram?? 11GB GDDR5X dass erinnert doch stark an die GTX 970, nur das jetzt die Kastration angegeben ist.
Und für die Mehrleistung im Wert eines halben Neu PC´s sehr realistisch. Die Titan wird dann hoffentlich für nur 1599€ angeboten.