brause1701 schrieb:
Kann es sein, dass der Test durchaus einigermaßen neutral durchgeführt wurde und aufgrund des positiven Ergebnisses für AMD lediglich publiziert wurde?! […]
Wenn man einmal versucht Dinge von einer
neu·tral·en Warte aus zu betrachten, dann wird einem auffallen, daß bei AMD seit geraumer Zeit ein ziemlicher Bruch mit der Vergangenheit geschehen ist und daß AMD seit Zen eigentlich sehr penibel genau darauf achtet, daß ihre Ergebnisse so objektiv wie möglich sind (Veröffentlichung von Cinebench-Testsuiten et cetera pp.), die Art und Weise, wie sie zustande kamen für Jedermann nachvollziehbar sind und Ähnliche Dinge – eben weil sie oft in der Vergangenheit als befangen bezeichnet wurden (was
nicht notwendigerweise jederzeit den Tatsachen entsprach …).
Sie wissen eben sehr genau, daß der Markt derart beeinflußt ist und sie stets nur eine einzige Chance haben (die allererste des Ersteindrucks), ihr Produkt als der Konkurrenz überlegen darzustellen (wenn denn so gegeben). … und sie wissen auch sehr,
sehr genau, daß der Markt ihnen gegenüber geradezu feindlich agiert, es eine gigantische Maschinerie gibt, die ihre Produkte schlecht redet, selbst kleinste Makel künstlich und höchst effizient PR-technisch zu fundamentalen Kardinalfehlern aufbauscht und zeitgleich für eine stets blütenweise Weste der Mitbewerber sorgt – damit diese selbst mit dem größten Müll beim Kunden noch die Kassen leeren mögen.
Sein wir doch mal ehrlich, die Jubelperser und Claqueure die sich Intel und nVidia landauf, landab in jahrelanger und finanziell höchst mühsamer Arbeit herangezüchtet haben, sorgen dafür, daß Team Blau wie Grün mit de facto
Allem durchkommen – und selbst bei den schlechtesten Produkten im Laufe eines Reviews oft derart tief in die Trickkiste der Psychologie gegriffen wird, daß am Ende im Fazit noch irgendwo ein paar vermeintlich gerechtfertigte grüne Plus-Sternchen auftauchen.
Solche Tricks beginnen meist bei der Überschrift und enden im honigsüßen Fazit …
Das hat AMD letztlich begriffen.
Sie haben endlich begriffen, daß
wenn Zen ein Erfolg werden sollte (und dazu waren sie um ihrer Existenz Willen verdammt), sie mit absolut offenen Karten spielen mußten – eben weil Intel und nVidia mit jeden nur erdenklichen schmutzigen Mitteln ein Fuß fassen von AMD zu verhindern suchen würden.
Sie wußten ganz genau, daß wenn Zen wie gehabt und wie all die Jahre zuvor in den Markt entlassen wird, selbst die bahnbrechendste Architektur zum Scheitern verurteilt sein wird, solange AMD darauf steht. AMD hat schlussendlich begriffen, daß sie nur noch eine Chance haben, wenn es ihnen gelingen würde, die Öffentlichkeit auf ihre Seite zu ziehen – und eben dies versuchen sie in letzter Konsequenz seit und mit Zen umzusetzen. Es gab definitiv diesen Paradigmenwechsel bei AMD und das sieht man an allen Ecken und Kanten.
Dieses „
Hey, wir sind vielleicht nicht hipp, oder so geil wie die anderen, aber … Wir versuchen einmalig zu sein. Wir sind einzigartig und wir wollen Dir etwas bieten, was Du von keinen Anderen bekommst. Ehrlichkeit. Wir spielen mit offenen Karten – im Gegensatz zum Wettbewerb! Bei uns gibt‘s ehrliche Preise, ehrliche Leistung und ein ehrliches Produkt. Versuch‘s einfach mal!“ … jedenfalls habe ich das Gefühl,
dies ist es, was AMD seit Zen versucht zu kommunizieren. Und wenn man einmal ehrlich ist, sie machen dabei bis jetzt einen ziemlich guten Job.
Nicht falsch verstehen, aber anscheinend fielst Du in die Kategorie b);
zu wenig Praxiserfahrung (mit den nVidia-Treibern). ☺
Chismon schrieb:
Hm, ob da die Massenfertigung eine Rolle spielt, denn die GTX 1060 ist mit Abstand die meistverkaufteste Pascal Grafikkarte im nVidia Sortiment (einige moegen argumentieren, dasss man genau bei diesem Modell von nVidia das Gegenteil haette erwarten koennen/muessen).
[…]
Ganz ehrlich? Ich glaube dies hat einen ganz anderen, deutlich simpleren aber dennoch plausiblen Grund;
Ein paar Fakten
Der Die der GTX 1060 basiert nun einmal auf einem Ausschuß-Produkt des Chips der 1070 und zuvörderst der 1080. Es war stets (für mit der Materie Vertraute)
bekannt, daß nVidia aufgrund des Debakels bei TSMC (ich habe
anderenorts meine Gedanken zum Thema zur Genüge versucht zu erläutern; siehe Spoiler) auf einem
riesigen Haufen teildefekter
GTX 1080- GP104-Dies saß und die defekten Dies, welche selbst nur eingeschränkt zur GTX 1070 taugten, nVidia zur GTX 1060 oder gar darunter per Laser-cut kastrieren
mußte – um eben überhaupt noch kapital aus dem Ausschuß schlagen zu können.
Das ist der Grund weswegen die GTX 1060
in freier Wildbahn aus etlichen verschiedenen Chips besteht, munter gemixt wird und es ohne Frage etliche Varianten gibt, die ohnehin mit einer immer weiter beschnittenen Chip-Variante daherkommen (GTX 1060 als 6, 5, 4 und 3 GByte-Variante) …
Mögliche Erklärungsversuche
Was nun ein halbwegs plausibler Grund sein kann,
weswegen die GTX 1060 (im generellen) im Test für signifikant mehr Fehler sorgte, ist möglicherweise bloß folgender;
nVidia hat die Dies Chargen-weise offensichtlich
sehr rücksichtslos sortiert und deutlich höhere Spannungen gefahren
um die Chips noch stabil zu bekommen – um sie eben selbst bei noch beispielsweise 98% Qualitätsgüte nicht als wieder einzuschmelzender Restmüll abschreiben zu müssen …
Das hat schon der Release der GTX 1060 als 3GByte-Variante seinerzeit gezeigt, da die Karte – ob wohl sie eine offizielle
TDP MGCP (→ „
Maximum Graphics Card Power“) von 120W besitzt – in verschiedenen Tests im Alltag einen Mehrverbrauch von ±25–45W gegenüber der originalen und unbeschnittenen 6 GByte-Variante aufwies. Das ist zurückzuführen auf deutlich höhere Leckströme, um den Chip trotz erheblich minderwertiger Güte dennoch stabil laufen zu lassen (und das Die halt nicht verschrotten zu müssen).
Schien damals traurigerweise bloß Niemanden zu interessieren …
Smartcom5 schrieb:
[…]
Das bedeutet, obwohl die Karte mit 10% weniger Shadern und nur der Hälfte an VRam läuft, vernichten die ±4,9% beim Basis-Takt respektive ±4,6% beim Boost-Takt nicht nur den verringerten Verbrauch der teil-deaktivierten GPU, sondern machen obendrein auch die gesamte Stromersparnis der 3 GByte GDDR5 zunichte. …
Gängiges Vorgehen
In dem selben Maße nun, wie AMD dafür bekannt ist, ihren CPUs und GPUs in der Vergangenheit aus Stabilitätsgründen stets großzügig vCore mit auf den Weg gegeben zu haben (und damit ihre Chips immer wieder signifikantes Undervolting-Potential boten), ist nVidia dafür bekannt, ihre Chips eher sehr knapp über der Stabilitätsgrenze arbeitend ausliefern zu lassen.
Es scheint, als daß es nVidia mit den Dies für die GTX 1060 und darunter halt etwas hart übertrieben hat.
Sie haben die vCore wohl absichtlich derart hart „auf Kannte genäht“, um die Dies dennoch halbwegs brauchbar zu verwerten. Das Dilemma bei TSMC seinerzeit war erwiesenermaßen alles andere als prickelnd und hat nVidia nun einmal de facto größere Yield-Ausfälle als damals bei Fermi beschert …
Das Prinzip ist, daß bei (bereits aussortierten) Chargen im Nachgang punktuelle Test gefahren werden um die benötigte Mindest-vCore zu ermitteln, ab derer der Kern stabil läuft. Diese werden in Folge auf
sämtliche Chips dieser Charge appliziert. … und es kann durchaus einmal vorkommen, daß der Die der jetzt in erwähnter Stichprobe getestet wurde, eben zu den deutlich höhergütigen gehörte.
Entsprechende Resultate sieht man dann halt erst hinterher – bedauerlicherweise
beim Kunden.
Ist zumindest für mich eine recht plausible Schlußfolgerung …
Und bestätigt habe ich mich gesehen, nachdem wir im Forum unmittelbar nach Release der GTX 1060 und insbesondere der GTX 1050 (Ti) plötzlich vermehrt Themen hatten, bei denen die Grafikkarte direkt nach Kauf mausetot war – auffallend stark war dies bei der GTX 1050 zu beobachten.
Smartcom5 schrieb:
Nur ein Gedanke nebenbei;
Was mir die letzten Monate auffällt ist, daß immer mal wieder Leute da sind, bei denen nach der Installation einer GTX 1060 der Rechner praktisch tot ist. Hast Du eventuell eine Grafikkarte anderen Typs zur Hand?
Weiter bestätigt kann man sich sehen, da es wiederholt Leute gab, die ihre 'tote' GTX 1060/1050(Ti)-Karte reaktivieren konnten, indem sie sich aus der Bios-Datenbank von
TechPowerUp ein entsprechendes Firmware-Image besorgt hatten und die Karte blind geflasht haben. Im Anschluß lief die Karte kurioserweise einwandfrei. Ist gar nicht
so kurios und abwegig, wenn man annimmt, das der Chip der erwähnten Karte vorher gar nicht die entsprechende Spannung bekam, ab der er stabil arbeiten konnte (und das Bios aus der TPU-Datenbank vom AIB halt etwas großzügiger daherkommt). Et voilà, Karte läuft wie sie soll.
Von daher kann man ruhig annehmen, daß die erwiesenermaßen erhöhte Fehlerquote bei der GTX 1060 durchaus dem Umstand der versuchten Resteverwertung geschuldet sein könnte. Beobachtet habe ich das selbe Phänomen bei der GTX 1080/1070 nämlich bis zum heutigen Tage
nicht ein einziges Mal (also, daß die Karte einfach
tot war – wie wiederholt bei der GTX 1060/1050 vorkommend).
BestinCase schrieb:
Ich hatte schon Situationen wo jeder Probleme hatte mit dem neuen Treiber während der alte problemlos funktionierte.
Das passiert leider ständig. Bei einem neuen Release braucht man nur auf
r/nVidia schauen. Wenn dort wieder einmal
VRamstufe: Grün ist, dann läßt man halt besser die Finger von dem Release.
Hat den Einen oder Anderen schon davor bewahrt, seine Karte zu brick'en. Wenn wieder mal ein solcher Treiber im Umlauf ist, wird da glücklicherweise sofort Alarm geschlagen. Von daher kann die Schwarmintelligenz des Internets durchaus auch mal nützlich sein!
In diesem Sinne
Smartcom