News EVGA entfernt EVBot der GeForce GTX 680 Classified

Ameisenmann schrieb:
Ist dennoch ein Unterschied ob man es offensichtlich heimlich einbaut oder offiziell damit wirbt. Des weiteren ist es ein Unterschied was die MSI und EVGA gemacht haben. Ich glaube kaum, dass die EVGA 88% über der vorhergesehen Spannung läuft.
Du hast den Artikel nicht gelesen... Es geht um den Spannungsregler, der normal bei 5,0V operieren sollte, aber dessen Spannungsversorgung durch einen Kondensator manipuliert wurde, resultierend in einer Betriebsspannung von ~9,3V. Der Spannungsregler wird damit ordentlich misshandelt, ein Wunder, dass er überhapt funktioniert. (Ein USB-Gerät würde bei dieser Spannung nur ganz kurz funktionieren -als Duftgenerator Eau de Lötzinn ggf. mit Nebeleffekt.) Diese Überspannung am Spannungsregler verursacht eine erhöhte Betriebsspannung an der GPU.
Hätte man die GPU-Spannung anheben wolle, hätte es dutzende Möglichkeiten gegeben, diese ähnlich unkompliziert zu erreichen ohne den Spannungsregler so schlecht zu behandeln.
Insofern sehe ich vorallem eines: Pfusch.
Nahc MSI gesellt sich jetzt auch EVGA zu den Herstellern mit "Mogelpackung"... Glücklicherweise gibt's noch genug andere Hersteller...

MfG, Thomas
 
Nur am Rande: Asus macht das mit manchen 7970 auch so - erst nen dicken Kühler samt mehr SpaWas draufpacken, das ganze als DCII verkaufen und dann aber die Spannung auf unter 1.1 V begrenzen. Bissel mitm Support kommuniziert, die haben irgendwann gesagt sie geben es an die Technik weiter, und seither nix mehr gehört. Ich weiß schon von welchem Hersteller meine nächste Karte nicht mehr sein wird...

Es ist ja schön und gut wenn man die DAUs vor versehentlichem Braten ihrer Hardware schützen und gleichzeitig die Anzahl an (unberechtigten) Garantiefällen/RMA beschränken will*, aber wenn jemand weiß was er tut dann raucht da auch nicht gleich der Chip ab (entsprechende Kühlung vorausgesetzt), und genau diese Leute werden mit solchen Maßnahmen bevormundet. Man stelle sich nur mal vor, Intel oder AMD würden bei der nächsten Sockel-Generation ein Memo an die Mainboardhersteller rausgeben, dass im BIOS keine Möglichkeit zur Core-Spannungsänderung auftauchen darf...

*wobei das meienr Meinung nach leicht zu verhindern wäre: Auf jeder Karte sitzt mindests ein Mikrocontroller, der Aufgaben wie die Lüftersteuerung oder das Programmieren des BIOS übernimmt. Dieser µC hat normalerweise auch Zugang zu den Spannunswandlern und kann deren Ausgangsspannung auslesen. Der Hersteller könnte jetzt einfach irgendwo im Flash einen kleinen Speicherbereich reservieren, in dem die jemals maximal eingestellte Corespannung abgespeichert wird. Schrottet man die GPU durch zu viel Spannung, dann funktioniert der µC idR aber noch und man kann diesen Wert auslesen. Daneben muss jede Software die ne Spannungsänderung zulässt auf diesen Umstand hinweisen, und der Hersteller ist frei von jeglichen "ja Grafikkarte macht kein Bild mehr, aber ich hab nix gemacht, lol"-Garantieansprüchen.
 
Zuletzt bearbeitet:
Man stelle sich nur mal vor, Intel oder AMD würden bei der nächsten Sockel-Generation ein Memo an die Mainboardhersteller rausgeben, dass im BIOS keine Möglichkeit zur Core-Spannungsänderung auftauchen darf...

ot
Wäre für ne Woche Shitstorm und dann finden sich die Leute damit ab. Ist bei Benzinpreiserhöhung js auch so. Wenns wieder um 10ct steigt ist das Geschrei groß und ne Woche danach juckts keinen mehr.

Wenn der Liter über 2€ geht ist wieder kommt wieder ein großer Shitstorm und ein Monat später haben sich die Leute damit abgefunden. Sie merken nur nicht dass das Geld generell weniger wert wird ^^
 
Letztlich hab ich schon die ganze Zeit auf so etwas gewartet. Denkt doch mal weiter: Nvidia will logischerweise immer die neueste Generation ihrer Karten verkaufen. Wenn man die "alte" Karte dann noch auf das Niveau der Neuen übertakten kann ist das schlecht fürs Geschäft ( ja, natürlich lässt sich die Neue auch übertakten ). Ich denke nicht, dass man Angst vor Defekten hat, da man sich eh auf Garantieverlust berufen könnte, außer der Hersteller zeigt explizit mit dem übertakten einverstanden.
Und so abwegig finde ich den hier aufgegriffenen Gedanken von der nicht mehr übertaktbaren CPU nicht einmal.
Warum sollte man Leistung verschenken, wenn man sie auch gut verkaufen kann?
 
Es ist sicherlich nicht wegen Leistung.
Meint ihr echt man hat Angst man könnte die 680 auf 780 takten?
Durch 30% mehr takt war es bei der classi gerade mal möglich 5-7 fps mehr zu kriegen.
 
30 % Mehr Takt sind aber im besten Fall auch 30 % mehr Leistung (sofern nix anderes limitiert) - und so arg viel schneller wird die nächste High-End-Karte (wahrscheinlich) auch nicht werden.
 
Nein, leider sind 30% mehr Takt nicht 30% mehr Leistung.
In der Theorie schon, in der Praktik sieht es dann anders aus.

Ausserdem weiss Nvidia doch, dass genau diese übertakter die 780 kaufen würden.
 
Zuletzt bearbeitet:
Ziemliche Frechheit und vorallem lächerlich. Nvidia geht einem mit dem Power Target ohehin schon auf den Keks. Wenn ich meine (scheißteure) Hardware grillen will, dann ist das mein Problem. Nvidia muss nicht Babysitter spielen. Zumal sie im Zweifelsfall ja nur ne weitere Karte verkaufen weil die erste abgeschmiert ist.

Die sollen ihre Boardpartner machen lassen. Da sie ja eh keine eigenen Karten anbieten müssen sie ja auch keine Konkurrenz fürchten. Nur Schade, dass diese Aktion Nvidia nicht im Geringsten auf die Füße fallen wird, weil die Leute die es wirklich stört wahrscheinlich an einer Hand abzählbar sind.
 
Moep89 schrieb:
Ziemliche Frechheit und vorallem lächerlich. Nvidia geht einem mit dem Power Target ohehin schon auf den Keks. Wenn ich meine (scheißteure) Hardware grillen will, dann ist das mein Problem. Nvidia muss nicht Babysitter spielen. Zumal sie im Zweifelsfall ja nur ne weitere Karte verkaufen weil die erste abgeschmiert ist.

Dann kannst du dich ja gerne von AMDs Powertune Babysitten lassen, denn ALLE aktuellen Karten von AMD und nVidia haben eine entsprechende Funktion. Mit dem Unterschied, dass Powertune ein wenig "härter" eingreift als der Boost bei nVidia; vor allem wird bei nV aber mit der niedrigeren Taktfrequenz geworben, während AMD (bzw. seine Partner) OC-Modelle auf den Markt wirft, die schon bei ganz normalen Spielen ihre Taktfrequenzen nimmer halten können.

Fakt ist, diese Technologien sind auch mitverantwortlich für den gesenkten Strombedarf, das darf man nicht vergessen...

mfg
 
HighTech-Freak schrieb:
Du hast den Artikel nicht gelesen... Es geht um den Spannungsregler, der normal bei 5,0V operieren sollte, aber dessen Spannungsversorgung durch einen Kondensator manipuliert wurde, resultierend in einer Betriebsspannung von ~9,3V. Der Spannungsregler wird damit ordentlich misshandelt, ein Wunder, dass er überhapt funktioniert. (Ein USB-Gerät würde bei dieser Spannung nur ganz kurz funktionieren -als Duftgenerator Eau de Lötzinn ggf. mit Nebeleffekt.) Diese Überspannung am Spannungsregler verursacht eine erhöhte Betriebsspannung an der GPU.
Hätte man die GPU-Spannung anheben wolle, hätte es dutzende Möglichkeiten gegeben, diese ähnlich unkompliziert zu erreichen ohne den Spannungsregler so schlecht zu behandeln.
Insofern sehe ich vorallem eines: Pfusch.
Nahc MSI gesellt sich jetzt auch EVGA zu den Herstellern mit "Mogelpackung"... Glücklicherweise gibt's noch genug andere Hersteller...

MfG, Thomas

Natürlich hab ich es gelesen aber du offensichtlich nicht verstanden. Warum sollte ich es nicht gelesen und verstanden haben? Wo behaupte ich das Gegenteil?
Ich sage doch, dass man die MSI Aktion nicht mit dem EVGA Feature vergleichen kann. MSI manipuliert so, dass es massive Probleme beim Endkunden geben kann, davon ist EVGA entfernt.
 
Sephe schrieb:
Das ganze ist wohl eine Reaktion darauf:

http://www.tomshardware.de/MSI-GTX660Ti-Overvolting,testberichte-241108.html

MSI hat wohl mit absicht einen Schaltungsfehler eingebaut, um die Chips ab Werk MASSIV mit Überspannung zu versorgen um einen höheren Turbotakt um sich so eine bessere Positiion in den Rankings zu verschaffen.

Das ist übrigens mal so richtig erschreckend. Ok ein Bauteil an seiner absoluten Grenze zu betreiben, naja auch schon nicht schön aber kann man mal machen. Aber einen Regelkreislauf absichtlich komplett zu sabotieren, damit man hintendran ~9 statt 5 V bekommt ist schon übel. Und dann mit den 9 V in nen Chip gehen dessen absolute max rating bei 7.0 V liegt, und ohne den die ganze Karte wahrscheinlich nicht mehr funktioniert... krasse Sache. Naja noch ein Hersteller, von dem man wohl besser keine Hardware kauft.
 
Zuletzt bearbeitet:
derzeit werden die „Classified“-Karten ohne die „Übertaktungsfernbedienung“ ausgeliefert.
der evbot lag noch nie der gtx 680er Karte bei ihr newsschreiber! den musste man sich von Anfang an dazu kaufen
 
Gemeint ist der Anschluss, da dieset nun nicht mehr auf dem PCB vorhanden ist.
 
Mumbira schrieb:
Gemeint ist der Anschluss, da dieset nun nicht mehr auf dem PCB vorhanden ist.

Mir ist das als mehrfach Besitzer bewusst und der Newsschreiber hat still und heimlich das Wörtchen "Schnittstelle" eingefügt ;)

PS: Einzig der Anschluss an sich fehlt, das PCB mit allen offenen Lötpunkten ist aber immer noch 1:1 wie vorher.
http://s13.postimage.org/mcu6xgzhj/photo.jpg
Die Lötkolbenschwinger können den EvBot also vorerst trotzdem noch Anschließen.
 
AbstaubBaer schrieb:
Das "versehentliche" ausliefern einer Karte mit serienmäßig stark erhöhter Spannung - wobei (mir) nicht ganz klar ist, ob das Modell so auch im Handel erhältlich war - ist mMn. etwas anderes, als eine optionale Spannungserhöhung bei einer extrem teuren Enthusiastenkarte zu unterbinden, die zudem in kleinen Stückzahlen von prinzipiell erfahrenen Nutzern gekauft wird.


Stimmt so nicht.
EVGA kann nicht davon ausgehen dass die Käufer wissen was sie tun, es gibt schon Meldungen dass mehrere Karten mit 1,5 Volt unter Luft gehimmelt wurden.
Das war sicher kein Enthusiast der weiß was er tut, sondern eher ein DAU.

Das da jetzt ein Riegel vorgeschoben wird, daran ist Nvidia sicher auch nicht ganz unbeteiligt.
 
Nvidia schreibt selbst:
Regarding overvoltaging above our max spec, we offer AICs two choices:

• Ensure the GPU stays within our operating specs and have a full warranty from NVIDIA.

• Allow the GPU to be manually operated outside specs in which case NVIDIA provides no warranty.

We prefer AICs ensure the GPU stays within spec and encourage this through warranty support, but it’s ultimately up to the AIC what they want to do. Their choice does not affect allocation. And this has no bearing on the end user warranty provided by the AIC. It is simply a warranty between NVIDIA and the AIC.”
Quelle: http://www.brightsideofnews.com/new...proving-quality-or-strangling-innovation.aspx

So, nun denken wir mal mit. Möglichkeit 2 hat MSI ja nicht gewählt, denn der RT8802A arbeitet mit fest voreingestellter Spannung. Die wiederum ist genau in den Specs und sollte also Variante 1 entsprechen. Es hat also zumindest den Anschein, dass man mit der Verschaltung Variante 1 wählt. Man hätte ja den TL431 bei 5 Volt lassen, auf den Kondesator verzichten und es einfach über den Widerstandswert von R1 und R2 richten können. Wäre billiger und stabiler gewesen, allerdings auch offensichtlich.

Was lernen wir daraus? MSI erschleicht sich damit die Nvidia-Garantie aus Variante 1. Klar kann man groß mit Herstellergarantie werben, wenn man sich hintenrum bei NV absichert. Dumm gelaufen, denn nachdem NV das spitz gekriegt hat, stellt MSI die Produktion um. Sicher nicht, um NV einen Gefallen zu tun, sondern der eigenen Bilanz wegen. Der Beschiss ist nämlich publik geworden und NV wird einen Teufel tun, diese Karten noch unter Garantie zu behandeln.

Was mich nur wundert - überall diese tollen und bewundernden Revies. Trotzdem hat sich (bis auf diese Ausnahme) keiner gefragt, wo das Plus eigentlich herkommt. Das ist der zweite, recht armselige Teil der Story, denn auch MSI kann ja kein Perpetuum Mobile erfinden.
 
Ich wundere mich auch, dass MSI den Spannungsregler derart außerhalb der Spez. laufen lässt und sich auch noch traut 3 Jahre Garantie darauf zu geben.
Die werden wohl interne Tests gefahren haben. Ärgerlich ist nur, dass manches Netzteil, welches etwas mehr, als 12V auf der 12V Schiene liefert, die Graka zum Abschalten bringt.
Eigentlich unglaublich!

@Topic: Da sieht man wieder, wie ein oder zwei schwarze Schäfchen alle Overclocking Modelle - auch aus Sicht von NVIDIA - in den Dreck ziehen.
 
Zurück
Oben