Novasun schrieb:Besser kann mans ja eigentlich nicht erklären - aber einige raffen es trotzdem nicht...
Nur soviel zum Thema "raffen es nicht": High-End-Leistung ist nicht unbedingt gleich High-End-Hardware...
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Novasun schrieb:Besser kann mans ja eigentlich nicht erklären - aber einige raffen es trotzdem nicht...
...und was soll uns ein Argument sagen das keins ist?Der Chip könnte 1000mm² groß sein, wenn er keine Leistung bringt - dann ist das bei euch high-End - ne is klar
Novasun schrieb:Besser kann mans ja eigentlich nicht erklären - aber einige raffen es trotzdem nicht...
P.S.: Die Chipgröße - echt das bringt Ihr als Argument.... Der Chip könnte 1000mm² groß sein, wenn er keine Leistung bringt - dann ist das bei euch high-End - ne is klar... Denkt mal drüber nach...
Was High-End ist, bestimmt aber der Zeitpunkt des Markteintrittes und dessen Performance - im Vergleich zur Konkurenz auf dem jeweiligen Einsatzgebiet...
Nur so und nicht anders könnt Ihr High-End definieren. Zum Eintrittszeitpunkt war die 980GTX High-End von Nvidia bezüglich SingleGPU Leistung in Spielen. Sie ist es in meinen Augen auch heute noch immer, auch wenn NV mit Titan X ein "besseres" Produkt released hat.
Lars_SHG schrieb:Wenn Du so willst, kommt der aktuelle nVidia High-End Chip GM200 mit der Titan und dessen Ablegern!
Genauso wie es der GK110 und dessen Ablegern war!
Es hat alles seine logische Ordnung......nur eben nicht an der Kasse, da wird dann auch mal der Mittelklasse Chip zu High-End-Preisen vertickt - also ~600 €.
!
da eben DP-Einheiten nicht vorhanden sindhat für die Einschätzung im Bereich gaming keine Relevanz und die GTX Karten sind von nVidia nur für Gaming vorgesehen! Was der Grund war um diese bei Titan 1 zu belassen ist unbekannt und von nachgeordneter Bedeutung!
warum nicht mal den wahrscheinlichsten Grund (bei GK110) annehmen? Nämlich der, dass zu Beginn einer jeden Fertigung einfach weniger Einheiten ohne Fehler zur Verfügung stehen?GTX TI gleich zu beginn gekommen ?
Alternativ könnte man auch kaufmännische Gründe annehmen, beide sind höchst wahrscheinlich und ordnen alles andere unter!
GM204 war nie teildeaktiviert (abgesehen von dem Spaß bei der 970) - auch hier wieder der klare Unterschied zu den High-End Produkten der Vorjahre!
Definitionsfehler - es wird nicht High-End durch fehlende Optionen!zu dem Zeitpunkt war GK104 als Gamer das wirtschaftlich machbare und somit "High-End"
Beispiel - wenn auch derzeit unrealistitsch - aber es verdeutlicht das Problem!
Angenommen in 10 Jahren würde es AMD nicht mehr geben, nVidia bringt die Generationen nur noch alle 4 Jahre raus.
Eine Mittelklassenkarte für 150 € nach 4 Jahren schlägt dann die High-End-Variante von vor 4 Jahren, die möglicherweise 1.000 € gekostet hat.
Weshalb sollte jetzt die neue Mittelklassenkarte für low Budget Gaming die neue High End Karte sein? Nur weil sie nach 4 Jahren Evolution schneller ist und vor dem release der neuen High-End Karte heraus kommt?
pipip schrieb:Nehmen wir das Beispiel GK104 vs GK110. Wäre GK104 die 680 GTX bzw 770 GTX günstiger gewesen, als die GK110 780 GTX TI, wäre die 780 GTX TI gleich zu beginn gekommen ?
Das glaube ich kaum, da eben besagter Chip sogar die "zweite" Revision war, weil der GK110 kaum verfübar war, eben aufgrund der Fertigung.
Überlegungsfehler: Zum Release der ersten Generation von Kepler Chips war nVidia wegen der 7970 von AMD unter Zugzwang. Zum Glück für nVidia war aber die 7970 von AMD schwach genug, dass nVidia den GK104 kurzerhand als GTX-680 auf den Markt werfen konnte.
Klar, die Verfügbarkeit des GK110 war vermutlich nicht gewaltig, aber für einen Paperlaunch hätte es wohl gereicht
Wurstpeller schrieb:Wenn AMD die Entwicklung weiterhin so Schnecken lahm bei den Grafikkarten verlangsamt, kann ich in 500 Jahren immer noch nicht TM2C mit 120Hz bei vollen Details und 4K Auflösung spielen.
pipip schrieb:AMD pflegt bei allen GPUs DP-Einheiten zu integrieren
Grundsolide schrieb:Wahrsager oder so? Beim ersten Teil blendest du Gerüchte/angeblich geleakte Benchmarks aus, die es anders prophezeien und dann in Sachen Rebranding nimmst du Gerüchte aber für bare Münze. Entscheide dich.
pipip schrieb:BlauX
Lol, wenn man das Bild vergrößert und echt scharf auf die 9 schaut, dann könnte das echt eher eine 8 sein
-jerico- schrieb:Ich denke mir halt das Nvidia sicherlich weiß was da auf sie zu kommen wird
psYcho-edgE schrieb:Bloß nebenbei, GraphicsCoreNext hat keine extra DP-Einheiten. Mehrere Recheneinheiten übernehmen bei GCN zusammen die Berechnung für DP