Upgrade von 1070 auf 1080 - lohnenswert für 4k?

Leider sind wir grafikkartentechnisch und Auflösungstechnisch lange auf fullhd stehen geblieben. 4k wird vermutlich de nächste "standard." Nur jeder hat andere vorlieben.
Ich finde das dsr ganz interessant kann es aber gerade nichf testen. Hab wohl verschlafen das es sowas gibt, war auch immer der Meinung das man aus einem pixel nicht virtuell 4machrn kann. Würde gern mal full hd oder 2,5k mit dsr sehen gegen 4k, mit selben settings. Dazu vllt noch die frage, wieviel fps verlust hab ich dabei oder andere probleme? Vllt wäre 1440p mit dsr eine alternative zu 4k solange es keine displays mit 144hz gibt. 4k an sich find ich schon sehr gut nur was ich gerne hätte und was ich dafür an gpu power brauchen würde...das dauert noch Jahre.

Topic: vllt reicht dir ja high/ultra auf 60fps das könnte vielleicht mit 2*1080 gehen. Wurde ja schon geschrieben das von high auf ultra nur minimale änderungen stattfinden. Abgesehen davon ist es auch schon wahnsinnig viel geld das man braucht. Wenn du damit leben kannst würd ich mir vllt überlegen eine ps4pro zu kaufen. Für das geld...4k tvs werden dir auch schon hinterhergeschmissen...
 
Ich finde das dsr ganz interessant kann es aber gerade nichf testen. Hab wohl verschlafen das es sowas gibt,
Wie die meisten im Forum, jeder immer 4k Monitor hier, 4k Monitor da, ich zocke schon seit es DSR gibt auf 4k, dynamisch je nach Rohleistung und wie das Spiel überhaupt mit 4k skaliert, denn nicht alle Spiele unterstützten das. Und wenn man dann mit 2 Klicks wieder auf 1080 zurück stellen kann ist das wirklich perfekt.

Würde gern mal full hd oder 2,5k mit dsr sehen gegen 4k, mit selben settings.
Ich würd vor allem mal gerne sehen wenn 2 Monitore nebeneinander stehen, Marken abgeklebt, einer ist nativ 4k, der andere mit DSR in 4k. Das man eine menge Leute davor setzt und die dann quasi blind beurteilen sollen welcher davon der native 4k ist. Ich trau mich wetten die sehen das nicht. Erst Recht nicht wenn nicht erlaubt ist das man nicht bis 1cm an den Bildschirm ran gehen darf. Also kein Pixelzählen veranstalten darf.

Dazu vllt noch die frage, wieviel fps verlust hab ich dabei oder andere probleme?
Kann jeder mit einem 1080p Monitor testen. Funktioniert in jedem Spiel, also der FPS Verlust.

Vllt wäre 1440p mit dsr eine alternative zu 4k solange es keine displays mit 144hz gibt.
Nein, 1080p auf 4k mit DSR ist eine Alternative.

Das CF und SLI Vram Gekrüppel Empfehlungen aussprechen, vergesst ihr am besten gleich mal wieder. Warum-> google.
 
Zuletzt bearbeitet:
4k steht bei mir noch immer sehr weit oben. Nachdem ich aber mal 144Hz erleben durfte, steht für mich HZ über Auflösung.
Da mit 27" @ 1080P zu pixelig ist, wurd es ein 1440P monitor mit 144hz.
Da stellt man auch nichts mehr runter (im sinne von Auflösung auf 1080 oder ähnliches)

4K wird mich erfreuen, aber erst wenn die HZ Zahl passt.

Bf1 @60hz @ Vsync an = völlig schwammig an der Maus, da bringen mir tolle texturen in 4k aufgelöst nichts.
Zocke ich aber z.B Strategie Games, würde mich 4k reitzen.
 
StockholmSyndr. schrieb:
Also ich würde das so machen:
Jetzt sofort: 1070 -> 1080
Im Februar dann 1080 -> 1080Ti
Und im März 1080Ti -> Vega Crossfire

So bleibt nichts ausgespart und Du hast garantiert keine Langeweile.

Wow, so ein unnötiger Kommentar. :rolleyes:
 
Kasmopaya schrieb:
Theoretisch. Praktisch kann man bei einem 4k Monitor 1080p verlustfrei einstellen und man hat wieder Performance satt, man wird also nicht gezwungen 4k zu fahren.

Das ist völliger Blödsinn! Auf einem 4k Monitor sieht FHD niemals so gut aus wie auf einem echten FHD Monitor (interpoliert). Liegt an den Pixeln. Auch wenn theoretisch FHD ein Teiler von 4k ist, sieht das bescheiden aus.
 
AYAlf schrieb:
Das ist völliger Blödsinn! Auf einem 4k Monitor sieht FHD niemals so gut aus wie auf einem echten FHD Monitor (interpoliert). Liegt an den Pixeln. Auch wenn theoretisch FHD ein Teiler von 4k ist, sieht das bescheiden aus.

https://www.amazon.de/gp/product/B00WUACE4S/ref=oh_aui_search_detailpage?ie=UTF8&psc=1

Das is mein 4K Bildschirm, kannst du oder irgendwer mir sagen, ob ich damit auf FHD interpolieren kann? Hab den Begriff noch nie gehört :D

LG
 
AYAlf schrieb:
Das ist völliger Blödsinn! Auf einem 4k Monitor sieht FHD niemals so gut aus wie auf einem echten FHD Monitor (interpoliert). Liegt an den Pixeln. Auch wenn theoretisch FHD ein Teiler von 4k ist, sieht das bescheiden aus.

Allerdings, es gibt immer Leute die behaupten DSR/VSR sieht genauso aus wie 4k nativ, bleibt trotzdem oft nachgelaberter Schwachsinn. Ich hatte einen 24" 1080p für 4 Monate neben meinem 27" 4k, der 1080p mit DSR/VSR sieht einfach nur scheiße aus wenn man 4k gewöhnt ist (ich will nicht wissen wie das ganze dann auf 27" aussehen würde).
 
@Kasmopaya: Muss ich mal ausprobieren. Du scheinst ja sehr davon überzeugt zu sein wenn du sagst man würde im blindtest kein unterschied erkennen. Hat mich überzeugt, werde ich mal test. Hab schon seit ner ewigkeit mein 24z fhd 144monitor. Mit ner neuen gpu und vllt bf1 auf 4k..muss ich mir mal anschauen
 
Das Problem bei so einem Test ist immer das sich das Panel leider ändert, egal wie genau man aussucht und Chancengleichheit herstellen will. Hat der 1080p Nachteile beim Panel, wird man das sofort erkennen. Oder allgemein ein Montagsmodell mit IPS Glitzern oder Lichthöfe oder sowas. Das müsste man irgend wie ausblenden und sich nur auf die Auflösung konzentrieren. Schwerer Test, aber für mich ist es unvorstellbar, das bei meinen 4k über DSR da noch großartig Qualität drauf kommen kann, nur von der nativen Auflösung her. Vom Panel her ja, aber nicht weil 4k nativ dargestellt wird.

Das könnte auch immortuos 4k Test beeinträchtigt haben.

Vorteile DSR Faktor 4 also 4k die ich bis jetzt erlebt habe:
+Kantenglättung über das gesamte Bild hinweg. Ich brauch da meist keine Kantenglättung mehr.
+Teils werden die Texturen enorm aufgewertet, viel mehr Details, Vram Verbrauch schießt nach oben.(Far Cry 4)
+Teils allgemein mehr Details, weil einfach feinere Strukturen dargestellt werden auf Entfernung, die vorher unter gegangen sind, bzw. gar nicht dargestellt wurden.



Mein GPU Zyklus war und wird auch immer 4 Jahre sein. Da kann ich im 3. oder 4. Jahr keine 1440p oder 4k fahren, da bin ich mir sicher. Daher gibts bei mir kein zwanghaftes Einstellen der Auflösung. 1080p ist früher oder später wieder am Drücker. Das 1440p oder 4k besser ausschauen, das man sich wie üblich extrem schnell an die Qualität gewöhnt und es nicht mehr missen möchte ist mir auch klar. Aber ich zwinge mich dazu. Alle 1-2 Jahre GPU neu kaufen ist bei mir aus Prinzip nicht drin.

Das ist völliger Blödsinn! Auf einem 4k Monitor sieht FHD niemals so gut aus wie auf einem echten FHD Monitor (interpoliert). Liegt an den Pixeln.
Warum sollte das interpoliert werden?!? Da wird einfach jede 2. Zeile ausgelassen, nicht dargestellt.

HisN, kannst du das bestätigen, 1080p sieht auf deinem Monitor deutlich schlechter aus als auf einem nativen 1080p?

Wegen dem Panel Dilemma hab ich vor kurzem einem 4k Monitor Besitzer die Frage gestellt: Was passiert wenn man im Windows 1080p einstellt und im Treiber dann auf 4k per DSR stellt. Wird dann die native Auflösung des Monitors angezeigt oder die hoch gerechnete der GPU wenn man im Spiel auf 4k stellt.

Wenn hier dann die GPU am Drücker ist und DSR ausgibt, dann hätten wir das Panel Dilemma umgangen und man könnte mit 2 baugleichen 4k Monitoren direkt nebeneinander vergleichen.

Da ich darauf noch keine Antwort habe, rufe ich hiermit alle 4k Monitor Besitzer auf das mal für uns zu testen.
 
Zuletzt bearbeitet:
Hmm.. das ist ne gute Frage.
Wenn Du von 4K auf FHD schaltest, fehlt Dir natürlich erst mal der Schärfe-Eindruck .. ich vergleich das mal ... bei Gelegenheit, aber ich bin einer der über die Feiertage schuften darf, ich komme nicht sofort dazu.
 
Kasmopaya schrieb:
Wenn hier dann die GPU am Drücker ist und DSR ausgibt, dann hätten wir das Panel Dilemma umgangen und man könnte mit 2 baugleichen 4k Monitoren direkt nebeneinander vergleichen.

Da ich darauf noch keine Antwort habe, rufe ich hiermit alle 4k Monitor Besitzer auf das mal für uns zu testen.

Das kann ich leider nicht testen da AMD es auch nach Jahren nicht schafft VSR bis UHD auf Hawaii zu implementieren :freak:
Meine 290 kann daher nur 3200 x 1800 über VSR :/
Müsste jemand mit einer Fury oder einer 380/285 testen.
Das ist einfach nur traurig, sogar meine alte GTX 660 konnte mit DSR seit der Veröffentlichung UHD nutzen, aber AMD bekommt das auch nach Jahren nicht gebacken...

Achja, mein Test wurde dadurch nicht beeinträchtigt, die beiden verglichenen Panele hatten beide keine Probleme, dennoch geht einfach wie HisN schon schreibt der Schärfe-Eindruck auf dem 1080p Panel verloren und damit der große Vorteil von UHD auf einem relativ kleinen Panel.

Ist aber natürlich immer alles subjektiv, ich habe in Windows 125% Skalierung eingestellt und komme damit super zurecht, alle anderen die mein Setup gesehen haben meinten dass alles viel zu klein ist. 100% Skalierung wäre mir dann aber auch zu klein, aber bei UHD auf 27" ist das meiner Meinung nach nachvollziehbar ;)
 
Zuletzt bearbeitet:
Das ist einfach nur traurig, sogar meine alte GTX 660 konnte mit DSR seit der Veröffentlichung UHD nutzen, aber AMD bekommt das auch nach Jahren nicht gebacken...
Ich hab das mal 2015 mit einer GTX 520 low end Fermi passiv gekühlt getestet, DRS bis rauf auf 4k. Zumindest für den Windows Desktop war es nutzbar, für Spiele natürlich eher nicht. :freaky:

Wirklich schade was AMD da macht, das Feature wäre absolut perfekt für ihre Karten. All ihre Karten skalieren mit hohen Auflösungen besser als NV Karten, aufgrund der höheren Shader Zahl im Vergleich, die dann besser ausgenutzt werden.

Mal wieder ein glattes Eigentor hier nicht voll drauf zu bauen und vielleicht sogar besseren Support zu geben als NV. Aber wir wissen ja auch alle warum -> kein Geld(AMD) -> kein Support.
 
Zuletzt bearbeitet:
In der Praxis schauts wie üblich anders aus, hier hat jede Titan ihren kleinen TI Bruder schon immer geschlagen.
äh nein - bei der ersten Titan war diese kein Vollausbau und wurde auch schon Anhand der Recheneinheiten von der GTX780ti geschlagen.
http://www.nvidia.de/gtx-700-graphics-cards/gtx-780ti/
http://www.geforce.com/hardware/desktop-gpus/geforce-gtx-titan/specifications

Auch wenn es unwahrscheinlich ist, ausschließen kann man das bei der anstehenden 1080ti nicht, das es wieder so ist.
Wäre natürlich pervers bei den aktuellen Preisen der Titan X (Pascal) - aber vielleicht will nVidia seinen Aktionären ja noch mal so einen grotesk hohen Gewinn präsentieren wie im letzten Jahr 2016.
 
äh nein - bei der ersten Titan war diese kein Vollausbau und wurde auch schon Anhand der Recheneinheiten von der GTX780ti geschlagen.
Ahhh, du verwechselst da was. Die erste Titan hatte keine 780TI als Gegenspieler, sondern die kleinen Kepler. Erst sehr spät wurde die von den Vollausbau Chips platt gemacht. Aber wie üblich nicht im Vram. Die Titan Black war der Gegenspieler zur 780TI. Und die war mit ordentlicher Kühlung jederzeit den TIs überlegen. Die haben der Titan Black garantiert keine minderwertigen Chips verpasst. :rolleyes: 6GB Vram wie üblich langlebig ohne Ende.
http://www.nvidia.de/gtx-700-graphics-cards/gtx-titan-black/
http://www.nvidia.de/gtx-700-graphics-cards/gtx-780ti/

Auch wenn es unwahrscheinlich ist, ausschließen kann man das bei der anstehenden 1080ti nicht, das es wieder so ist.
Die TI Vollausbau und die Titan weniger Cuda Cores? Hat es nie gegeben und wird es auch nie geben.

Das einzige das es gegeben hat, das die TI die gleichen CUDA Cores wie die Titan bekommen hat. Das liegt aber schon lange zurück beim Kepler Vollausbau. Das wäre möglich, aber unwahrscheinlich. NV will ja max. Gewinn machen wenn AMD nix dagegen halten kann.

Die Kontern ja nächstes Jahr mit der nächsten Generation Vega und nicht mit Pascal 1.0(Titan XP).

Das was passierte bei der Titan Black ist das sie ein wenig später kam als die 780TI, aber das ist ja auch unmöglich bei Pascal Titan, da die ja schon draußen ist. Es könnte höchstens sein das die 1080TI mehr Cuda Cores bekommt also den Vollausbau und die "Titan X Pascal Black"(also Vollausbau) dann kurze Zeit darauf folgt. Aber eine TI langfristig über einer Titan. -> NV Selbstmord.


Wenn die 1080TI erst in ein paar Monaten kommt, könnte es schon sein das es eine neue Vollausbau Titan XP Black gibt, aber das hat ja dann mit der ersten Titan XP nix mehr zu tun, die ist ja dann schon altes Eisen und von der letzten Generation.

Das man sich die Titan XP weil sie im Chip und im Vram beschnitten ist nicht kauft, weil es sehr wahrscheinlich ist das dann eine Vollausbau Black Version kommt ist auch klar. Damit musste jeder rechnen.
 
Zuletzt bearbeitet:
Die TI Vollausbau und die Titan weniger Cuda Cores? Hat es nie gegeben und wird es auch nie geben.
zum ersten Teil, habe ich nicht geschrieben, dass die TI Vollausbau war!
Dennoch hatte sie mehr Recheneinheiten-Einheiten als die Titan! Noch später kam dann noch die "Black" - ändert aber nichts an der Grundaussage, dass die TI die erste Titan geschlagen hat und zu der Zeit im Wettbewerb mit der Titan stand, die Black kam ja erst ca. 3 Monate später.

Wie auch immer, damals war das Preis-Leistungsrating noch in Ordnung - im krassen Gegensatz zu heute, wo die Mittelklasse GP104 High-End Preise hat und die Titan preislich in "neue Welten" vorgedrungen ist.
Technisch gibt es dafür keine Erklärung - Herstellungskosten auch nicht - konnte man ja sehr gut an den Zahlen sehen die nVidia publiziert hat.

Wenn man also ohnehin schon den Käufer 2016 erfolgreich beschissen hat - warum dem Fass dann nicht noch die Krone aufsetzen und wenige Monate nach release der Ultra-teuren Titan-X eine neue Karte auf Basis des gleichen Chips bringen die schneller ist um einen evtl. Gegner aus dem "Feindeslager" AMD zu besiegen. nVidia weiß da sicher mehr als wir.

Aber wie schon gesagt, das halte ich für eine extreme These die so wohl nicht kommen wird - würde nur gut ins Bild passen an die eigenen, zumeist, unerfahrenen Kunden, die ja sogar die GTX1080 / 1070 für High-End halten, kaufen und bezahlen und das obwohl nVidia ja selbst die Einstufung (GP102 / 104 / 106 / 107) publiziert hat.
Mal abgesehen von den spezifischen Hardware-Details die die Klassifizierung untermauern (Chip Größe, Speicher Schnittstelle etc.).

Ich jedenfalls finde die Preisgestaltung bei Grafikkarten (beider Hersteller) aktuell absurd. Erklären lässt sich das allerdings durch gute Absprachen der beiden Hersteller - der eine verkauft die obere Mittelklasse, der andere die untere Mittelklasse wo es zu keiner Konkurrenz untereinander kommt, und Marketing. Hier überrascht mich am meisten, dass es so viele Leute gibt, die entweder darauf hereinfallen - oder auch die, die immer das leistungsstärkste kaufen, egal was es kostet oder ob es nur das aktuell stärkste ist, weil einfach was stärkeres zurück gehalten wird.

Und da sind wir auch schon wieder beim Topic: upgrade von 1070 auf 1080 ist schon sehr wenig sinnvoll. Macht für mich nur Sinn, wenn einem das Geld komplett egal ist - andererseits, warum dann vorher "nur" eine 1070 gekauft?
 
Wie auch immer, damals war das Preis-Leistungsrating noch in Ordnung
Keine Ahnung wie man darauf kommt wenn man für ein extrem billiges Referenz Design mit Custom Kühler Verbot, teils beschnittenen Chip 1000€ hin blättern sollte: https://www.youtube.com/watch?v=ANz0CBa0wyg&feature=youtu.be
Der sagt das alle gleiche wie ich seit zig Jahren. (GF 600)
680 2GB war einfach nur ein Vram Krüppel mit schlechteren Kühlern als zu Fermi Zeiten. Natürlich teurer.
780TI 3GB einfach nur ein überteuerter Vram Krüppel 1. Klasse.
(das sagte ich ab der 1. Sekunde, als die Karten frisch raus waren)
Wenn eine Karte die Titan Classic ärgern konnte, dann die 780 6GB, aber die kam dann wiederum zu spät.

dass die TI die erste Titan geschlagen hat und zu der Zeit im Wettbewerb mit der Titan stand, die Black kam ja erst ca. 3 Monate später.
Das war das übliche Melken von NV, wie wir es heute mit 1080 und dann aus dem Nichts die Titan XP gesehen haben. Viele kauften die 1080 weil sie dachten da kommt nix mehr. Das ist nur Fanboy abgrasen. Aber Am Ende ist da immer eine Titan die alles platt macht.
Darauf sollte man also nix geben, das die Titan XP Käufer Gefahr laufen von der TI und einem Vollausbau Titan XP Black platt gemacht zu werden ist auch klar. Das war von Anfang an klar. Am Ende des Tages wird die TI aber weniger Vram haben und sowieso verlieren.

Technisch gibt es dafür keine Erklärung - Herstellungskosten auch nicht
Meine Theorie wäre das die Smartphone und Tablet Chips die Fabriken so fluten, das TSMC und co. die Waferpreise extrem angezogen haben. NV und AMD geben das nur weiter an uns. Gab sogar mal News dazu das TSMC die Waferpreise stark anziehen will, kurz bevor das so richtig los ging mit den Preisen. Ergo der Wahnsinn: Jedes Jahr ein neues IPhone etc. ist Schuld.

wenige Monate nach release der Ultra-teuren Titan-X eine neue Karte auf Basis des gleichen Chips bringen die schneller ist um einen evtl. Gegner aus dem "Feindeslager" AMD zu besiegen. nVidia weiß da sicher mehr als wir.
Warum nicht, es gibt bestimmt viele Wahnsinnige die dann Titan XP -> 1080TI -> Titan XP Black kaufen werden.
Solche Leute sind ja schon nicht vom Preisanstieg, und NV Shop only etc. etc. zurück geschreckt, die kann man bestimmt weiter melken. Am Ende ist aber immer eine Titan schneller als die TI, nicht immer in den Benchmarks, da diese ja nur einen ist Stand anzeigen und nicht die Zukunft zeigen.
Ich jedenfalls finde die Preisgestaltung bei Grafikkarten (beider Hersteller) aktuell absurd. Erklären lässt sich das allerdings durch gute Absprachen der beiden Hersteller
Nein, ich gebe den Smartphone Zombies die Schuld. NV ist schon seit längerer Zeit nicht mehr Nr. 1 Kunde bei TSMC, das verändert vieles. Noch dazu ist TSMC Fertigung extrem hochwertig, wie man vielleicht schon mit gekommen hat. Weder Samsung noch GF kommen da ran. Ergo können die verlangen was sie wollen, jeder der die besten Chips haben will muss zu TSMC.

Solange Intel nicht zum Auftragsfertiger wird, dürfte sich an dieser Situation nicht viel ändern. Smartphones werden ja immer noch verkauft wie verrückt und haben ständig größere Chips(gestapelt) drin.
 
Zuletzt bearbeitet:
Zurück
Oben