Dante2000 schrieb:
Albern hin oder her. Fakt ist, das meine alte 2014er GPU in FullHD Spielen keinerlei Probleme hat. Die "neuste 2017" 1080 TI, für 4K gebaut, jedoch bis heute das eben versprochene nur bedingt erfüllen kann. Zwischen den GPUs liegen gute 3 Jahre, lass es zwei Jahre für die Entwicklung, sein.
Du widerspricht dir hier aber schon massiv. Eine 1080ti ist mal eben ca 2,7 mal schneller als deine GPU, dann sollte die die wohl für deine Spiele ausreichen in 4k. Alle Regler stur nach rechts hat noch nie im Summe funktioniert und das wird es auch nie. Wobei ich mich eh frage, welche SPiele das sind. Selbst meine 1070 kommt in FullHd schnell an ihre Grenzen und die ist mal eben bis zu 70% schneller als die 970.
Dante2000 schrieb:
Was genau ist deiner Meinung nach "Unmöglich"? Das sich die Technik realistisch weiterentwickelt? Das es 4K, Thema seit 2013, endlich mal im Jahre 2018 für jeder Mann in vernünftigen Preislagen geben sollte? 8K GPUs sind längst überfällig, bzw. werden in den nächsten Jahren gefordert / benötigt werden. Laut Nvidia sind 4K+ technisch für sie auch kein Hindernis mehr, jedoch gibt's von keiner Seite einen Druck für eine Leistungssteigerung.
Die Fertigungsstruktur wird von den Auftragsfertigern vorgegeben im Falle Nvidia TSMC und die bieten aktuell eben nur 16nm im bezahlbaren Bereich an. Turing wird auch nur im optimierten Prozess genannt 12nm angeboten, wobei es aber nichts mit echten 12nm zu tun hat. Wie soll Nvidia oder AMD die LEistung steigern, wenn die Fertigung nicht mehr Transistoren pro Fläche was überwiegend für die Leistungssteigerung zuständig ist, zulässt. Das eine reine Größensteigerung den Energiekonsum massiv steigen lässt, sollte wohl bewußt sein, ebenso das mit steigender Fläche der Ausschuss steigt und somit auch der Preis pro mm² und das exponentiell. Wenn man das ganze realistisch betrachtet, darf man hier eben keine Wunder erwarten.
Dante2000 schrieb:
Bezüglich der 8K vs 16K Aussage. Einen Unterschied zum aktuellen FullHD Standard im direkten Vergleich sieht man sofort. Gleiches ist bei FullHD und 4K der Fall und wird bei den noch höheren Auflösungen immer sichtbar bleiben. Leider leben wir in Europa technisch jedoch in der Steinzeit. Wer einmal nach Japan gefahren ist oder sich mal informiert hat, was technisch dort "Alltag" ist, wird sich wundern.
Klar erkennt man einen Unterschied aber eben nicht unter allen Umständen. ES kommt immer auf die BEtrachtungsgröße und den Betrachtungsabstand an. Auf 55 Zoll erkenne ich zwischen 4k und FullHD bei 2,5 Meter Distanz keinen Unterschied, meine LEbensgefährtin nicht, mein Schwager nicht, die Schwägerin nicht und deren 18 jährige Tochter nicht. Allesamt keine Brillenträger und mit 100% Sehleistung versehen. Alles wurde getestet ohne das der Befragte wußte, was gerade zugespielt wird und natürlich wurde identisches Material getestet, einmal in 4k und einmal herunterskaliert in 1080p verglichen und nicht irgendwelche unterschiedlichen Quellen, die nicht miteinander vergleichbar sind.
Auch für das Auge gelten sinnesphysiologische Grenzwerte, was nur logisch ist, sonst könnte man Ameisen noch in 10km Entfernung erkennen.
http://www.frag-den-neudeck.de/Archive/312
http://carltonbale.com/1080p-does-matter/
Dante2000 schrieb:
Hier werden 1080i als "High End" verkauft, in diesem Jahr strahlt man in Japan bereits flächendecken in 8K ihre Programme aus. Wir brauchen in dem Fall jedoch nicht weiter diskutieren. Ich verstehe durchaus was du meinst, jedoch erwarte ich halt mal einen gewissen Durchbruch und vor allem einen mindest Standard im Grafikkarten-Markt. Seit zig Jahren wurde von 4K gesprochen und nichts entwickelt.
TV Austrahlungen lassen sich wohl kaum mit dem Rendering von 3d Grafiken vergleichen, wobei 8K ganz besonders im TV Sektor nichts weiter als eine Sau die durchs Dorf getrieben wird , darstellt, um dem dummen Konsumenten unsinnige Kaufanreize zu setzen, da wahre Innovationen im TV Sektor nicht vorhanden sind, aber weiterhin Absatz generiert werden muss.( Siehe verlinkte Optimalabstände)