News GeForce GTX 1060 kastriert: Ab September auch mit 3 GByte und 128 Shadern weniger

Nacho_Man schrieb:
Hu?
Sie haben sich doch selbst zu einer Vermarktung als 1060 entschieden (vorgeblich bestimmt), seine eigene Unternehmens-Entscheidung zu torpedieren finde ich da nicht so sinnvoll.
Ja endlich! Darum geht es doch. Nvidia hat entschieden die GPU als 1060 zu vermarkten. Und somit dem Kunden etwas zu suggerieren/ um ihn hinters Licht zu führen.

Selbst wenn also Boardpartner und OEM den Namen gefordert hätten, so ist nvidia in der Verantwortung und hätte ablehnen können.

Und darum ging es in dem Beitrag: Wo bleibt die Verantwortung seitens nvidia? und nicht nur immer vom Kunden fordern.
Wenn sie wollten könnten sie natürlich, verursacht aber mehr Kosten als es Wert ist.
Sehe ich auch täglich an Kosten/Nutzen um gegen Produktpiraterie unserer Produkte vorzugehen.
Kartons/Faltblätter müssen genauso produziert werden wie bei jedem anderen Produkt auch. Ob da nun 1060 3GB draufsteht oder 1055 3GB macht keinen Unterschied.

Was das mit Produktpiraterie nun zu tun hat verstehe ich nicht. Der Produktpirat kann jetzt noch einfacher aus einer "1060" 3GB eine 1060 6GB machen.(mal davon abgesehen das die eher Fermi o.ä.nehmen)
Der Aufwand die Piraterie einzudämmen ist derselbe.

Winder schrieb:
Nvidia gesteht beiden Varianten die gleiche TDP zu. Die 3GB Variante hat allerdings einen geringer Stromverbrauch beim Speicher und kann sich deshalb einen höheren Verbrauch beim Grafikchip erlauben. So funktioniert das nun einmal bei Nvidia-Karten und ihren TDp-Klassen.
Du glaubst doch nicht das die Ersparnis von 3GB und den 128 Shadern eine soweit bessere Taktung erlauben das dieses kompensiert werden kann.
 
War bei der Radeon HD 7870 damals noch schlimmer: es gab zwei Versionen, welche jeweils einen unterschiedlichen Chip hatten. Aber mal sollte doch meinen, dass aus Fehlern gelernt wird. Man muss es ja nicht unnötig kompliziert machen...
 
Conceptions schrieb:
Kartons/Faltblätter müssen genauso produziert werden wie bei jedem anderen Produkt auch. Ob da nun 1060 3GB draufsteht oder 1055 3GB macht keinen Unterschied.
Oder man klebt, wie AMD es gemacht hat, einfach 'nen Aufkleber drüber. Die haben auch beschissen und einfach aus einer 8GB 4GB gemacht (dreist;))

Aber nein, das ist nVIDIA, also kauft Leute, kauft!
Gibts auch schon für schlappe 354,10€
 
Genau, die 7870 (XT hiess die glaube ich dann) war ein Fall wo es wirklich berechtigt war.

EchoeZ schrieb:
Aber nein, das ist nVIDIA, also kauft Leute, kauft!
Gibts auch schon für schlappe 354,10€
Hu? Schon verfügbar? Sehe da kein Problem dran, ist doch schön eindeutig gekennzeichnet. :D

@Conceptions:
Selbst wenn also Boardpartner und OEM den Namen gefordert hätten, so ist nvidia in der Verantwortung und hätte ablehnen können.
Die Produktpiraterie war auf einen vorherigen Beitrag bezogen.

Selbst wenn also Boardpartner und OEM den Namen gefordert hätten, so ist nvidia in der Verantwortung und hätte ablehnen können.
Natürlich hätte nVidia ablehnen können und die Karte als 1055 vermarkten können.
Allerdings steht noch die Frage im Raum wie die Aktionäre auf diesen absichtlichen Managementfehler reagieren, wenn die Forderung etwa von Dell oder Apple kam sieht es da schlecht für die Vorstände bei der nächsten Hauptversammlung aus. Nur um ein paar Eigenbrötler die es interessiert und den Rest gar nicht einen der grössten Kunden zu verlieren (im Extremfall) ist betriebswirtschaftlicher Unsinn.
Und womit hätte die dann den Vorstand entlassen können? Mit Recht!
Letztendlich interessiert der Umstand der beschnittenen Version kaum 100 Menschen, hier im Thread sind es eine Handvoll, welches Unternehmen interessieren denn die paar Kunden? AMD bestimmt nicht wenn sie in der gleichen Situation wären, da kannst du drauf wetten. ;)
 
Zuletzt bearbeitet:
pipi schrieb:
War bei der Radeon HD 7870 damals noch schlimmer: es gab zwei Versionen, welche jeweils einen unterschiedlichen Chip hatten. Aber mal sollte doch meinen, dass aus Fehlern gelernt wird. Man muss es ja nicht unnötig kompliziert machen...

Korrekt, war ebenso zu bemängeln. Allerdings war die 7870XT als Tahiti LE bezeichnet, also anders Deklariert. Stand so nicht bei MM oder sonstwo aber stand sogar auf den Kartons. Deswegen unglücklich, aber immer noch Gesetzlich Korrekt.
Dennoch finde ich anhand von Jacob Elektronik die Wahl nicht gut. Spätestens wenn es 6GB 300er geben wird, gibts keine Chance mehr nachzuvollziehen welche Karte was ist. Nunja man kann nur hoffen, dass NV nicht dies mit absicht macht und den 400er GP wieder von der 1060 verschwinden lässt... Passiert dies, dann stehen wir vor dem Thema Betrug.
 
Conceptions schrieb:
Du glaubst doch nicht das die Ersparnis von 3GB und den 128 Shadern eine soweit bessere Taktung erlauben das dieses kompensiert werden kann.
Hoch getakteter Speicher braucht einiges an Strom.

Es hat ja seine Gründe warum in Zukunft HBM (und als Zwischenschritt GDDRX) kommen soll. GDDR ist ziemlich am Ende und benötigt viel zu viel Strom.

Der Unterschied zwischen Basistakt und Turbo beträgt schon über 10%. Und da reden wir nicht nur über die Shader, sondern über den gesamten Grafikchip.
Es ist also möglich, dass nachher beide die gleiche Leistung haben.
Also, abwarten.
 
Man Ihr habt Sorgen!
Die GTX 1060 mit 3 GByte und 128 Shadern weniger ist für nächsten Monat angekündigt. Wenn ich ankündige, dass ich in einer Stunde einen fahren lasse, wissen wir auch noch nicht ob der stinkt oder ober der harmlos ist.
Einfach einmal abwarten was NVidia mit welchem Namen veröffentlicht. Die GPU kann ja in einem Monat auch GTX 1060LE oder GTX 1060LT heißen.

Es ist aber wie immer bei NVidia Threads. Da werden diverse AMD Jünger ganz heiß und fangen an mit dem dicken Knüppel wild um sich zu schlagen.
 
@pipi
Hä?
Die 7870 wurde mit Pitcairn Chip verkauft. Über ein halbes Jahr später kam die 7870 Boost Edition mit Tahiti Chip, also einem beschnittenen 7950. Man hätte sie natürlich auch 7950 Light Edition nennen können.

Aber wo soll dieser Fall jetzt mit deinem Beispiel vergleichbar sein? 😲
 
AMD-Mafiosi schrieb:
Spätestens wenn es 6GB 300er geben wird, gibts keine Chance mehr nachzuvollziehen welche Karte was ist. Nunja man kann nur hoffen, dass NV nicht dies mit absicht macht und den 400er GP wieder von der 1060 verschwinden lässt... Passiert dies, dann stehen wir vor dem Thema Betrug.
Bei wirklichen Fälschungen mit uralten Chips und "neuem" BIOS sehe ich da ein Problem, das ist aber bei so ziemlich jeder Karte möglich.
Allerdings verstehe ich nicht den Sinn einer "Aufwertung" der GP106-300 zu einer 400 wenn auch der Speicher verdoppelt wird.
Wenn der Preis wirklich bei etwas über 200€ liegt lohnt sich das doch gar nicht beim Aufpreis für das Mehr an Speicher im Vergleich zum echten 400er?
Ich hätte die 3GB-Version eher als exklusiv für OEM angesehen, dass die wirklich in den offenen Verkauf kommt hielt ich bisher für ausgeschlossen, außer vielleicht in China direkt aus den Fabriken.

oldmanhunting schrieb:
Die GTX 1060 mit 3 GByte und 128 Shadern weniger ist für nächsten Monat angekündigt. Wenn ich ankündige, dass ich in einer Stunde einen fahren lasse, wissen wir auch noch nicht ob der stinkt oder ober der harmlos ist.
Guter Vergleich, mal sehen ob der höhere Boost das bis auf 5% Unterschied ausgleichen kann.

oldmanhunting schrieb:
Es ist aber wie immer bei NVidia Threads. Da werden diverse AMD Jünger ganz heiß und fangen an mit dem dicken Knüppel wild um sich zu schlagen.
https://www.youtube.com/watch?v=e5T7Svp_d0c
Das ist nichts neues, viele kommen sich gerne mal als was Besseres vor wenn sie unbegründet das vorgebliche Unschuldslamm pushen. :p
Wartet nur falls AMD doch wieder hochkommt.
Dann unterstützen plötzlich alle nVidia weil sie vom Markt"führer" AMD bedrängt werden und absolut nie nicht niemals sowas wie die bösen Grünen/Roten abziehen würden. ;)
 
Zuletzt bearbeitet:
@Nacho_Man
Da besagen Jacob Elektronik und auf die Info von Bora was anderes.. Laut einem MM Kollegen sollen wohl auch OEM Karten in diese Microstar, HP FertigPcs kommen.. Bisher steht es fest dass 3GB Karten kommen. Eventuell sind die GP 300er Aber auch nur für Asien und kommen nie hier her. Klar ist das erst ab September. Und der Schritt vom 300er 3GB zum 300er 6GB ist sehr sehr kurz und dürfte nicht Technisch Abriegelbar sein.

Achja würde AMD sowas machen, wäre ich genauso erzürnt. Schreiben Palit, EVGA etc 1152Shader unter der GTX 160 ist das ok. Der Uninformierte Kunde (davon gibt es nahezu 90% weltweit) weiß aber dennoch nicht dass es auch eine 1280er Variante gibt. Der Verbraucherschutz dürfte das ähnlich sehen. Eventuell wird NV in Deutschland gezwungen die Karte klar zu Deklarieren.
 
Natürlich ist das technisch ohne weiteres möglich (größere Chips), meine Frage war aber ob sich das umdeklarieren überhaupt lohnt.
Der 300er wird die Kartenpartner ja wohl nicht viel weniger als der 400er kosten, zumindest gehe ich davon aus.
Müssten so ca. 20$ weniger sein bei 1000er Abnahme, schätzungsweise.

AMD würde genau dasselbe abziehen wenn sie der Marktführer wären, darum ging es mir.
Diesmal ist es nVidia und es wird so weitermachen (Preis, Produktpolitik, Registrierung für neue Treiber usw.).

Der Verbraucherschutz dürfte das ähnlich sehen. Eventuell wird NV in Deutschland gezwungen die Karte klar zu Deklarieren.
Das will ich sehen, auf welcher Grundlage denn? :rolleyes:
Solange es keine beschnittenen 6GB GP106-300 gibt besteht dazu kein Anlaß weil keine Verwechslungsgefahr.
 
Zuletzt bearbeitet:
Nacho_Man schrieb:
Natürlich ist das technisch ohne weiteres möglich (größere Chips), meine Frage war aber ob sich das umdeklarieren überhaupt lohnt.
Der 300er wird die Kartenpartner ja wohl nicht viel weniger als der 400er kosten, zumindest gehe ich davon aus.
Müssten so ca. 20$ weniger sein bei 1000er Abnahme, schätzungsweise.

AMD würde genau dasselbe abziehen wenn sie der Marktführer wären, darum ging es mir.
Diesmal ist es nVidia und es wird so weitermachen (Preis, Produktpolitik, Registrierung für neue Treiber usw.).

Nunja im OEM Bereich macht das schon was aus. Stell dir mal vor TUL sagt sie nehmen 300000 Chips und bauen sie in HP Pro Liant Rechner ein als 6GB Version.. Davon werden dann die restlichen in den Retail Markt entlassen. Der Kunde wird keine Chance haben, die Karte zu erkennen, wenn er nicht 100% weiß was dahinter steckt.
Achja wegen AMD. Ich denke nicht dass es AMD machen würde, weil deren Firmenpolitik eine andere ist. Ebenso macht es auch Intel nicht, obwohl man Marktführer ist.
 
Hmm, da gibt es also ne GTX 1060 die Preislich deutlich günstiger ist als die andere und der Kunde sieht den Preis und stellt keine weiteren Fragen mehr.. Sorry aber für Dummheit ist der Mensch noch selbst verantwortlich. Wenn ich etwas kaufe wovon ich keine AHnung hab ERKUNDIGE ich mich an diversen Stellen. Deshalb baue ich auch mein Haus nicht selber ... Aber Eigenverantwortung ist in DEutschland leider fehl am Platz, schuld haben immer "die da Oben".
 
Gab es so einen Fall denn schon wo der Chip nicht identifiziert werden konnte anhand der Seriennummer o.ä.?
Bei den Tests zu Aldi-Rechnern & Co. stand das bisher immer dabei, evtl. in Zukunft auch? Bei Laptops sind die Rebrandings doch auch schnell erkannt worden.
TUL sagt mir leider nichts in dem Bereich.

weil deren Firmenpolitik eine andere ist
Natürlich ist sie das, solange sie nicht Marktführer sind. :D
Intel ist eine andere Nummer, dort hat man sehr viele Möglichkeiten, schlechtere Chips als niedrigere Nummer zu verkaufen, quasi 100% Verwertung und mehr Produkt-Diversifizierung. Folglich ist das Verkaufen verschiedener Chips unter gleichem Namen dort nicht notwendig.

dMopp schrieb:
Wenn ich etwas kaufe wovon ich keine AHnung hab ERKUNDIGE ich mich an diversen Stellen. Deshalb baue ich auch mein Haus nicht selber ... Aber Eigenverantwortung ist in DEutschland leider fehl am Platz, schuld haben immer "die da Oben".
Genau das ist der Punkt. Hinterfragt wird kaum noch etwas, einfach blind gekauft und später die Schuld bei anderen gesucht.
Ein Haus bauen würde ich auch nicht selber, selbst nach intensivstem Einarbeiten. Zum Renovieren, Verputzen und Strippen ziehen hat es aber bei mir noch gelangt. :D
 
Zuletzt bearbeitet:
Danke für die Info, ein gutes aktuelles Beispiel. :)
War deiner Erinnerung nach denn die Unterscheidung klar und auf den Produktseiten von Schenker & Co. aufgeführt?

Zumindest im Test liess sich der Unterschied ja anhand der Kühlkonstruktion erkennen.
 
Nacho_Man schrieb:
Danke für die Info, ein gutes aktuelles Beispiel. :)
War deiner Erinnerung nach denn die Unterscheidung klar und auf den Produktseiten von Schenker & Co. aufgeführt?

Zumindest im Test liess sich der Unterschied ja anhand der Kühlkonstruktion erkennen.

Nope war es damals nicht.. Leider.
Das gleiche Problem gab es ja bei den GT640
Ich finde die Deklaration auf den Karten schon heute nicht ersichtlich genug.
@dMopp:
Das dumme ist, es wird eben nicht gekauft nach Verstand.. Ergo heisst es: Nvidia hat ja die 1080, die schnellste Karte also ist die 1060 genauso gut. Dass die 3G noch weiter beschnitten ist wird dir aber auch der MM Mitarbeiter nicht sagen, denn es geht nur ums Verkaufen.
Ich finde die Deklaration mit LT oder eben 1055 besser, allerdings würde hier das Marketing sagen: verkauft sich nicht so gut

Was das Thema Intel betrifft, es gibt hier klare Deklarationen. Nvidia könnte die Karte GT 1060 zb. nennen oder 1060 OEM.. So muss das Produkt aber seinen Lebenszyklus lang auf dem Markt sein. Es gibt ja auch genug Chips bei Intel, die im OEM Bereich sind und so irgendwann mal verkauft werden.
Wir werden sehen was im September passiert.
 
Also generell gilt/galt die Faustregel: MXM 860m (also aufrüstbar) = Kepler , gelötete 860m = Maxwell.

Schenker hatte das beim Launch zumindest hier im Forum geschrieben. Ich denke, dass dies auch auf der Seite zu finden war:
https://www.computerbase.de/forum/threads/faq-beitrag-zum-thema-gtx-860m-auf-maxwell-basis.1326962/

Erinnere mich aber auch, dass ein Kollege am Anfang Ärger bei einem Händler hatte. Es wurde die 860m Maxwell angegeben, verbaut war aber die Kepler.


Dann gab es noch die Gtx 850m, welche in DDR3 und GDDR5 verkauft wurde.

"Obwohl die GTX 850M auf dem Papier etwas weniger Rechenleistung besitzt, platziert sie sich dank der höheren Effizienz der Maxwell-Architektur noch vor der alten GeForce GTX 765M. Dabei gilt, dass die GDDR5-Version trotz geringerer Kerntaktrate in der Regel etwas höhere Frameraten als das DDR3-Modell abliefert und oftmals sogar die Kepler-Variante der GeForce GTX 860M übertrifft."
http://www.notebookcheck.com/NVIDIA-GeForce-GTX-850M.107528.0.html

https://gaming.msi.com/article/gddr5-or-ddr3-does-matter-with-nvidia-geforce-gtx850m-graphics

Ich meine, dass MSI mit die einzigen waren, die die GDDR5 Version verbaut haben. Clevo hat meines Wissens nach nur die DDR3 Version verbaut gehabt. Man musste sich schon informieren, um dann keine böse Überraschung zu erleben.
 
mit der Devise "wer sich nicht informiert ist selber schuld" muss ich aber auch beim Neuwagenkauf mit dem Lackschichtenmessgerät ran, und am besten vorher einen dipl. ing. machen und das Auto erstmal auseinanderbauen um sicherzugehen, dass auch wirklich alles verbaut ist. Dann waren also auch die VW Käufer selber schuld, dass sie die geschönten abgastests nicht durchblickt haben selber schuld, wer sich in den 60ern Astbest hat verbauen lassen war selber schuld, wer Pferdefleich statt Rind im Hack hatte war selber schuld, wer die billigeren Amalgam füllungen bekam und deswegen Quecksilbervergiftungen riskiert ist selber schuld denn alles hätte man mit den passenden Gerätschaften und Wissen locker erkennen können.
Und wo ihr so schön politisch seid, wer in Niedersachsen der SPD geglaubt hat dass man ohne Einschnitte die Studiengebühren abschafft und sich nun wundert dass es beim Topf des Kultusministeriums fehlt auch selber schuld :-D

Zum Thema 1060 sei Low-End, so weit ists schon das Karten für deren Preis ich einen Low-End Laptop kaufen kann zu nicht mehr zu gebrauchen sind.

Titan X: Highend gabs früher nicht und wurden meiner meinung nach nur eingeführt um den Preis für Highend Karten Langsam zu erhöhen
GTX xx80(ti): Oberklasse seit der Geforce 4 gelten karten der x8x bzw x8xx Serie als High END
GTX xx70: Mittelklasse seit der Geforce 470 gelten karten der x7x Serie als Oberlklasse bzw Consumer Highend weil es in der Regel beschnittene Highendchips waren
GTX xx60(ti) Low-End sind seit der Geforce seit der Geforce 460 gelten Karten der x6x Serie als Mittelklasse Karten.
GTX x50 sind Low End und reichen fürs spielen zwischendurch locker aus

Alles darunter sollte man meiden fürs Gamen und kann sich besser eine Karte der Vorgängergeneration kaufen oder heute die in die CPU integrierte GPU nutzen.

Traurig ist, dass NV seit der 7xx Serie jede Generation einen Hunderter mehr für Highend verlangt wodurch der Preisliche abstand zu Midrange zu groß wurde und NV die aktuellen 60er Karten einfach mal 80€ teuerer gemacht hat zum release(und vermutlich auch eher 100-150€ mehr genommen hätten wenn es die 480 von AMD nicht gäbe).

Und das Beispiel mit der AMD Radeon 7870XT zieht nicht, weil AMD es dort genau richtig gemacht hat. Es handelt sich in dem Fall nämlich um eine abgespeckte 7950 mit 2GB und ein paar Shadern weniger, aber dafür höherem Takt wodurch sie es sogar mit ihrer Großen Schwester 7950 aufnehmen konnte und das zum Preis der 7870 pro.
Nachzulesen hier
https://www.computerbase.de/2012-12/test-vtx3d-hd-7870-black-tahiti-le/

Ich kann die hitzigkeit der ganzen Diskussion auch nicht verstehen, findet irgendwer das vorgehen von NV gut die 3GB Karte zu beschneiden und verteidigt das?
Nacho Man hat nur die Einstellung, dass auch der Kunde eine Verantwortung hat sich selber zu informieren, geht mit dem "Wie viel" nur weiter als ich oder die anderen die gegen ihn argumentieren.

Wenn ich Bio Eier der Größe L oder M Kaufen kann erwarte ich dass in beiden Bio drin ist und weiss dass ich bei 6 eiern Größe M weniger Ei habe als bei der gleichen Anzahl der Größe L. Und wenn ich nun eine Geforce 1060 kaufe erwarte ich den gleichen Chip Egal ob ich 3 oder 6GB auf der Karte habe.

Und ratereien ob der Boosttakt besser gehalten werden kann sind überflüssig weil das auch vom Gehäuse etc abhängt, Laut Datenblatt kommen hinten nur 4 statt 4,4 Tflops raus laut Angaben von NV
 
Zuletzt bearbeitet:
Onkelpappe schrieb:
mit der Devise "wer sich nicht informiert ist selber schuld" muss ich aber auch beim Neuwagenkauf mit dem Lackschichtenmessgerät ran, und am besten vorher einen dipl. ing. machen und das Auto erstmal auseinanderbauen um sicherzugehen, dass auch wirklich alles verbaut ist. Dann waren also auch die VW Käufer selber schuld, dass sie die geschönten abgastests nicht durchblickt haben selber schuld, wer sich in den 60ern Astbest hat verbauen lassen war selber schuld, wer Pferdefleich statt Rind im Hack hatte war selber schuld, wer die billigeren Amalgam füllungen bekam und deswegen Quecksilbervergiftungen riskiert ist selber schuld denn alles hätte man mit den passenden Gerätschaften und Wissen locker erkennen können.
Laber doch nicht rum, hier geht es um gesicherte Daten die man innerhalb von Sekunden nachsehen kann. Wenn der Hersteller lügt und betrügt kann der Käufer dass auch mit Recherche nicht wissen.
Aber du wirfst ja gerne alles in einen Topf, dein Lieblingsgericht ist wohl Eintopf? :rolleyes:

Wobei es bei VW schon seltsam ist dass der Betrug erst aufgedeckt werden konnte nachdem ein zertifiziertes Testverfahren für Straßenmessungen verfügbar war. Die Verdachtsmomente konnten vorher ja mit SW-ReverseEngineering für das "kompetente" KBA nicht genug erhärtet werden.
Bezüglich Lackschichtdicke habe ich damals darauf verzichtet weil der Händler eigentlich seriös war, Lehrgeld bezahlt und Händler erfolgreich verklagt, fertig. Seitdem traue ich keinem Händler mehr so weit wie ich spucken kann. :p
Bei Rinderlasagne für 0,89€ (war wirklich so im Angebot) sollte man schon etwas misstrauischer sein, auch bei Massentierhaltung.
Die Amalgam-Füllungen hatten inaktiviertes Quecksilber (gebunden), soweit ich mich noch dran erinnere lag es hauptsächlich an einem ausländischen Zulieferer der Kosten sparen wollte.
Vergleiche zu Brustimplantaten aus Industriesilikon, alles Betrug und konnte nicht vom Nutzer erfahren werden. Wobei ein Frauenarzt mir erzählte dass jeder Schönheitschirurg den Unterschied schon beim Einsetzen bemerken hätte sollen...

Onkelpappe schrieb:
Und das Beispiel mit der AMD Radeon 7870XT zieht nicht, weil AMD es dort genau richtig gemacht hat. Es handelt sich in dem Fall nämlich um eine abgespeckte 7950 mit 2GB und ein paar Shadern weniger, aber dafür höherem Takt wodurch sie es sogar mit ihrer Großen Schwester 7950 aufnehmen konnte und das zum Preis der 7870 pro.
Dir ist aber schon klar dass nVidia (nach den bisherigen Informationen) hier genau dasselbe macht? :freak:
Weniger Speicher, minimal weniger Shader und höherer Takt! Wie schnell Turbo/Karte ist wissen wir halt noch nicht genau.
Bezüglich passender Gehäusewahl wären wir wieder bei der Informiertheit des Kunden. :p

Onkelpappe schrieb:
Und wenn ich nun eine Geforce 1060 kaufe erwarte ich den gleichen Chip Egal ob ich 3 oder 6GB auf der Karte habe.
Ist doch der gleiche Chip, nur mit dem "Feature" Lasercut. ;)
Wieso dasselbe Verhalten bei der 7870XT akzeptabel war erschliesst sich mir nicht, nur weil die Karte schneller war als du es erwartest hast? Wäre sie langsamer und gleichzeitig günstiger gewesen wäre es wohl auch okay? :freaky:

Onkelpappe schrieb:
Nacho Man hat nur die Einstellung, dass auch der Kunde eine Verantwortung hat sich selber zu informieren, geht mit dem "Wie viel" nur weiter als ich oder die anderen die gegen ihn argumentieren.
Immerhin das stimmt. :D
 
Zuletzt bearbeitet:
Zurück
Oben