News Nvidia-CEO macht GTX-970-Limitierung zur neuen Funktion

Des Weiteren führt Huang aus: „Anstatt begeistert zu sein, dass wir eine Methode erfunden haben, wie wir den Speicher der GTX 970 von 3 auf 4 GB erhöhen können, waren einige enttäuscht darüber, dass wir die Segmentierung des letzten Gigabytes nicht besser beschrieben haben.“


Hm, das kann ja nicht so recht stimmen.
Ich hab nen Interview mit einem Nvidiaingenieur gelesen, wo dieser
sagt, dass die GTX 970 eine Karte ist, die es nicht geschafft hat,
eine GTX 980 zu werden aufgrund von Fertigungstoleranzen etc.
Deswegen wurde hier und dort ein, zwei oder teilweise drei Bausteine
deaktiviert und dann als GTX 970 ausgelobt.
Er sagt, dass das natürlich damit zu tun hat, dass man weniger Ausschuss hat,
da man die schlechten 980er als 970er verkauft.
Soll mir eigentlich Recht sein, wenn denn die Karten korrekt beworben werden
und nicht, auf Teufel komm raus, rumgelogen wird.
Die Aussage des CEO ist also auch ne komplette Lüge, da die Karte von vornherein,
lt. dem Ingenieur, die 4 GB hat und nix mit "Methode erfunden, aus 3 mal eben 4 GB zu machen" zu tun hat.
 
lionelhudz schrieb:
Aber AMD ist perfekt: https://www.computerbase.de/forum/threads/r9-280-x-problematische-serie-oder-zufall.1447182/

Echt Leute, ohne Worte! Hab mir jetzt den ganzen Thread durch gelesen aber bis auf 1-2 Leute hat keiner das "Problem "verstanden. Immer das gleiche....:freak:

Wie kann man so weltfremd und uneinsichtig sein. Dann erkläre uns doch mal das "Problem" - wenn es hier nur 1 - 2 Leute verstanden haben, dann besteht hier doch enormer Aufklärungsbedarf. Ich würde es auch gerne so gut wie ihr 3 Auserwählten aus der Elite verstehen können :(
 
G2xPQRmHnT schrieb:
Ich selbst hatte 2x 970 und habe aktuell 1x 970. Viele schreihen, aber wirklich machen tut niemand etwas. Eher eine 980 kaufen (selbst drüber nachgedacht).
Das sieht eher so aus als ob DU nichts machst. Aus meinem Bekanntenkreis haben sich sieben (7) GTX970 Karten verabschiedet und wurden durch 290X ersetzt wenn keine ältere passable Karte bereit stand (680).
Wer angeschmiert wurde und trotzdem nochmal sein Geld zum selben Hersteller karren will, dem ist einfach nicht mehr zu helfen.
 
Leute bekommt euch rein... Klar ist das dreist, aber das ist nur das Vorgeplänkel wegen der Sammelklage in den USA.
Das kann richtig Asche sowas kosten und so versucht man die ersten kommenden Geschworenen zu beschwichtigen.
Von alleine würde man das "beinahe" tote Pferd ja nicht versuchen wiederzubeleben.
 
PiPaPa schrieb:
Das du vergessen hast die G-Sync Verarsche mit aufzuführen. Offensichtlich braucht es für G-Sync ebenso nur einen eDP Scaler im Monitor und wofür nun der FPGA wirklich ist, weiß man nicht. Vermutlich nur ein DRM Modul was verhindern soll das nicht-nvidia Karten es können...

da sagt Anandtech was anderes:

One final note on the subject is that there was some news last month where at first someone thought G-SYNC laptops without a G-SYNC module were possible. The reality ends up being a bit different than that particular tale. As PC Perspective reports, it turns out ASUS accidentally let an alpha driver get out to the public that had some G-SYNC support. While some thought that G-SYNC could be done on any notebook, it turns out that’s not true – only the ASUS G751 line of notebooks seems to have worked with the leaked driver, and that had a display where G-SYNC was an option (and also worth noting is that Optimus Technology is not used on the G751JY).

Anyway, while G-SYNC did work in many instances using that leaked driver, there were problems when frame rates dropped too low, including the screen blacking out for half a second and other anomalies. If you’re wondering why the G-SYNC module is in desktop displays, that’s a big part of it right there: ensuring the experience actually works properly all of the time. And at least in my testing of the Acer XB280HK and ASUS PG278Q, it does exactly that. G-SYNC will almost certainly end up coming to laptops as well, but it will be in a slightly different form from the current desktop implementation, and the actual ETA is still unknown.

ist zumindest nicht so dass ein eDP Scaler auszureichen scheint, da die NB Implementierung von der im Desktop abweicht. Aber keine Ahnung... man wird sehen ^^
 
Edit: Wer hier wäre denn einer 3,5 GB Karte mit 224Bit oder 192 Bit Karte mit 3GB lieber gewesen - bei selbem Preis? Hat allen anschein nach ka keine Vorteile zur existierenden GTX 970 da diese so weit es geht eh nur die 3,5 GB mit fullSpeed nutzt und nur im Worst Case auf die 512 MB zugreift.

Diese CEO leben eh in einer anderen Welt, davon abgesehen hätte mich es garnicht gewundert wenn er bis heute nichts vom Problem erfahren hätte. Naja, die Äußerung hät er sich sparen können, das eigentliche "Problem" war ja quasi schon vergessen ;)
 
Zuletzt bearbeitet:
Diablokiller999 schrieb:
Nur dass mir der AMD-Chef noch nie so dreckig ins Gesicht gelogen hat.

Naja, vielleicht hatte AMD auch bisher keinen Grund schön zu reden, und wer sagt, dass AMDs Strategie nicht einfach nur den Gegenpol zu NV darstellen soll, ohne eine Überzeugung dahinter? Mag vielleicht auch paranoid klingen, aber ich glaube die Hersteller haben nur das eine im Sinn: Verkaufen, mit welchen Methoden auch immer.
AMD hat sich auch nie wirklich zu Ihren 200 Watt FX Prozessoren geäußert, vielleicht wollte man da DAUs auch einfach nur vorgaukeln einen "echten" Octa-Core zu kaufen, was es bei Intel noch nicht gab.
 
Zuletzt bearbeitet:
Wa1lock schrieb:
Oder es steht doch im Blog.

Feature != Funktion

http://dict.leo.org/ende/index_de.h...oc=0&resultOrder=basic&multiwordShowSingle=on

Feature = Eigenschaft, Merkmal, Besonderheit.

Er hat das nicht als neue Funktion dargestellt, sondern als eine neue Eigenschaft (eine Besonderheit) des Maxwell Chips und das ist ja so auch richtig.
Mit keinem Chip zuvor war es möglich, die Anzahl an Speichercontrollern (MC) unabhängig von der Anzahl an Cacheblöcken und Crossbar-Ports festzulegen.
 
han123 schrieb:
Ich hatte ja auch Probleme mit der 970er, aber gibt es noch andere Leute, die bei einem anderen Hersteller keine Probleme hatte, wenn man an oder über die 3,5 Grenze gekommen ist? Bei mir waren es 2 Karten vonn Gigabyte, die immer ab 3,2 bzw 3,5 GB Probleme gemacht haben, während die Zotac Dual Fan Active problemlos 4 GB nutzen konnte.
Kann das noch jemand bestätigen oder ist jemanden ähnliches aufgefallen?

Meine Zotac GTX 970 zuckt nicht in Far Cry 4, keine Nachladeruckler (wie in den div. Videos)...glücklicherweise, dabei ist das die erste NieVidia seit vielen Jahren.
Die letzten beiden Karten von dem Laden, die ich hatte; ne Geforce 4200Ti und 8800GT waren Problemkinder mit RAM Defekten ...die AMD/ATI Karten liefen bisher ausnahmslos alle problemfrei.
 
Edit: Wer hier wäre denn einer 3,5 GB Karte mit 224Bit oder 192 Bit Karte mit 3GB lieber gewesen - bei selbem Preis?
Ich zum Beispiel hätte keines der Beiden dann genommen und wäre bei AMD geblieben, es war bei mir auf Messerschneide.
 
@Maldweister
Das wäre aufgefallen. Die 3,5GB wurden ja auch nur bekannt, weil Leuten aufgefallen ist, dass es bei 3,5GB immer Ruckeln gab.
 
lionelhudz schrieb:
Aber AMD ist perfekt: https://www.computerbase.de/forum/threads/r9-280-x-problematische-serie-oder-zufall.1447182/

Echt Leute, ohne Worte! Hab mir jetzt den ganzen Thread durch gelesen aber bis auf 1-2 Leute hat keiner das "Problem "verstanden. Immer das gleiche....:freak:

Was hat denn das ganze hier mit AMD zu tun?

Zitat aus dem von dir erwähnten Thread:
PRAXED schrieb:
Warum du jetzt hier mit der 970 kommst:confused_alt:... Hier geht es um Defekte und nicht um Falsche Angaben Seitens eines Herstellers. Die Intention hier, ist bestimmt nicht Per se gegen -AMD als Hersteller- zu schießen;)

Der Thread macht es auch offensichtlich dass die Boardpartner zu inkompetent sind ordentliche BIOS zu machen. Das hat ca. 0,0% damit zu tun, dass nVidia falsche Angaben bei ihren GPUs macht... :rolleyes:
 
Meine Zotac GTX 970 zuckt nicht in Far Cry 4, keine Nachladeruckler (wie in den div. Videos)...

Sie zuckt höchstwahrscheinlich schon, allerdings kann es ganz einfach sein, dass du nicht empfindlich für Mikroruckler bist.
 
Maldweister schrieb:
vielleicht wollte man da DAUs auch einfach nur vorgaukeln einen "echten" Octa-Core zu kaufen, was es bei Intel noch nicht gab.

Was ihr immer mit der Modulbauweise habt? Das sind acht logische Kerne. Kein Hyperthreading o.ä...
 
Herdware schrieb:
AMD kann es meines Wissens nicht, bei beschnittenen SI noch die volle Speichermenge anzubinden. AMD braucht für diese 4GB die vollen 256Bit (oder 128, 512 usw.).

Wie kann man eigentlich nur so verblendet sein?

Schau mal:

1. Angegeben wurde die GTX 970 mit vollem 256-bit SI. Also wie kann man je darauf kommen, dass da was teildeaktiviert wurde.

Mal abgesehen davon, jeder hat das ja schon mitbekommen ...


... und da kommen wir zu der wichtigeren Nummer 2. Mal ganz ehrlich? Es klingt nicht sonderlich schwer, einfach 4GB zu verbauen und nur 7/8 des SI laufen zu lassen. Dass dann nur 3.5GB funktionieren ist die LOGISCHE Konsequenz. Von irgendwelche positive Feature kann man da nicht reden. Die hätten die GTX 970 auch einfach mit vollem SI laufen lassen können.
AH NE, geht ja gar nicht. Die Architektur lässt es ja nicht zu, Shader zu deaktivieren ohne den SI einfach so stehen lassen zu können. Also von POSITIV kann man hiervon nicht sprechen, das kann AMD 1000x besser.
Ein weiterer Punkt es NICHT als Positiv zu betrachten, ist, dass die GTX 970 ziemlich stark treiberabhängig ist, damit es nicht zu Performanceproblemen kommt durch eine falsche Nutzung des Speichers.


Du lässt dich aber so was von verblenden, das ist ja nicht mehr lustig hier.
 
Zuletzt bearbeitet:
Lol.. wie damals bei Iphone... "Ihr haltet das Iphone falsch".

"Question – What’s going to be done about the signal dropping issue. Is it software or hardware
Non issue. Just avoid holding it in that way."

Dies ist ein riesen Armutszeugniss von NVIDIA. Schade.. Sie hätten alle Chancen gehabt, mit dem Problem "Sauber" umzugehen, aber wie meisst bei Firmen in "Vormachtsstellungen" wird das Problem zum Feature.. Unprofessionell.
 
Capthowdy schrieb:
Ganz ehrlich: als die Karte getestet wurde und man die Leistung gesehen hat, waren die Meisten hin und weg. Jetzt weinen alle rum als wäre die Karte irgendwie schlechter als vorher. Ja, auf dem Papier ist sie das, aber an den Resultaten die den Hype der Karte ausgemacht haben, ändert das überhaupt nichts.

Btw: wer meint jemand der eine GTX 970 kauft würde "scheiße fressen", hat davon IMHO selbst mehr als genug im Kopf.

Entschuldige dass ich dich persönlich angegriffen habe, ist schon gut... :rolleyes:

Aber mal ernsthaft jetzt, mir geht es ums Prinzip. Natürlich fällt so etwas nicht sofort auf bei den Tests (den wenigen Leuten ist es auch erst nach Monaten aufgefallen). Die 970 ist auch keine schlechtere Karte als vorher - hab ich nie behauptet. Mir geht es eher darum, dass nVidia wenn "nötig" ihren Kunden fröhlich ins Gesicht lügen kann und wenn es auffliegt wird einfach weiter gelogen. Und die Fanboys machen einfach mit. Das mit den Falschangaben nennt sich meines Wissens übrigens in Deutschland Betrug und ist eigentlich eine Straftat. Aber na gut. Hab ich halt Scheiße im Kopf...
 
Zuletzt bearbeitet:
Capthowdy schrieb:
Ganz ehrlich: als die Karte getestet wurde und man die Leistung gesehen hat, waren die Meisten hin und weg. Jetzt weinen alle rum als wäre die Karte irgendwie schlechter als vorher. Ja, auf dem Papier ist sie das, aber an den Resultaten die den Hype der Karte ausgemacht haben, ändert das überhaupt nichts.

Darum geht es nicht oder nur teilweise.

Das Speicherproblem wird irgendwann zum Problem werden, dies steht ausser Frage..!
Und auch wenn es noch nicht zum Problem geworden ist, fühle ich mich einfach von Nvidia betrogen..!
Und dieser Umstand berechtigt meiner Meinung nach, bei einer Investition von 300 Euro, jeden dazu "rumzuweinen", unabhängig davon ob man die Karte behält oder nicht..!

Ich behalte meine Karte, fühle mich aber trotzdem betrogen. Nochmehr nach der Aussage des CEOs..
 
Zuletzt bearbeitet: (Rechtschreibung)
Zurück
Oben