News Nvidia-CEO macht GTX-970-Limitierung zur neuen Funktion

Krautmaster schrieb:
Edit: Wer hier wäre denn einer 3,5 GB Karte mit 224Bit oder 192 Bit Karte mit 3GB lieber gewesen - bei selbem Preis? Hat allen anschein nach ka keine Vorteile zur existierenden GTX 970 da diese so weit es geht eh nur die 3,5 GB mit fullSpeed nutzt und nur im Worst Case auf die 512 MB zugreift.

Diese CEO leben eh in einer anderen Welt, davon abgesehen hätte mich es garnicht gewundert wenn er bis heute nichts vom Problem erfahren hätte. Naja, die Äußerung hät er sich sparen können, das eigentliche "Problem" war ja quasi schon vergessen ;)

Falsche Ausgangsposition denn im Nachhinein kann man immer viel behaupten.
Hätten sie den L2 nicht kastriert dann hätte es vermutlich auch nicht das Problem mit dem Speicherinterface nicht gegeben und wären die anderen Eingenschaften zeitnah nach dem Releas korregiert worden und nicht erst nachdem die ganze Geschichte dank der Speicher Verkrüppelung aufflog dann wäre das Thema auch nicht so eskaliert.

Was wäre dir lieber gewesen? Die GTX970 mit den kommunizierten Daten oder das was davon übrig blieb?
Beim gleichen Preis versteht sich.
 
Grinch0815 schrieb:
Den habe ich sehr wohl gelesen. Nur deine Aussage, dass AMD nichts vergleichbares hat, ist einfach falsch. Eine R9 290x ist günstiger als eine 970GTX hat kein extremes Spulenfiepen und rennt dem NV Pendant in Auflösungen höher 1080p auf und davon.

Der etwas höhere Stromverbrauch amortisiert sich durch den günstigeren Preis Plus Never Settle ect....

Wie gesagt, du hast es nicht gelesen.
https://www.computerbase.de/2014-10...leich/3/#diagramm-bioshock-infinite-2560-1600

Nur in Crysis 3 kann die Karte in Sage und Schreibe 2 Frames davonziehen. Und was ist mit den anderen Games?

Weniger Performance, lauter, mehr Abwärme, mehr Verbrauch... Und eben auch nicht schneller ;-)
Ergänzung ()

proud2b schrieb:
Wer Teuer kauft, kauft 2 mal. Dank nVidia.

Amd hat genug vergleichbares, und verkauft keine Billighardware zum High-End Preis. AMD bietet Vollausbau, Chip sowie Speicherbandbreite. So, und jetzt du.

Ihr mit eurem Vollausbau und Speicherbandbreite - blablabla...
Nochmal, auch für dich... Was nutzt es, wenn die Karten langsamer sind und mehr verbrauchen? Da kann dort ein Vollausbau und Speicherbandbreite drin sein, soviel du willst. Im Game zählen die FPS und nicht die Zahlen auf dem Papier.
Auf dem Papier sieht AMD komischerweise immer besser aus als NVIDIA, bis dann die ersten Benchmarks kommen.
 
@ankabo: hatte ne MSI 290X vorher im System und bin auf Spaß an der Freude auf ne GTX 970 gewechselt, mein Fazit zu den beiden Karten:
Die 970 ist in allen Games mindestens genauso schnell, teils deutlich schneller (Project Cars, Assetto Corsa), wird mit dem Accelero S1+ ca. 60° "heiß" und ist praktisch lautlos (langsamer 120mm Fan). Die 290X ist ne super Karte, hat aber das Gehäuse gut aufgewärmt und mich haben ein paar Games (v.a. pCars) genervt, die mit den AMD-Karten nicht wirklich spielbar waren - die 970 läuft praktisch permanent im Vsync :D

hab ein paar Spiele (FC4, Crysis3) getestet mit extremen Settings (4k + hohes AA) um auf 3,5GB+ VRAM-Belegung zu kommen - Problem war eher, dass die Karte dafür grundsätzlich zu langsam ist um diese Einstellungen fahren zu können, bevor sie wegen dem Speicher absäuft
 
PHuV schrieb:
So ein Blödsinn, nimmt eine aktuelle ATI-Karte 260X oder 280, die produziert an einem LG 31MU97-B über DP mit 4096x2160@60Hz permanente Bildfehler und -störungen. Und jetzt nenne mir mal einen weiteren Hersteller, der 4096x2160@60Hz am DP-Ausgang kann.
Am Monitor kanns natürlich nicht liegen...

denn nach 3 Minuten Google-Suche bereits User gefunden, die mit dem Monitor und der 260X keine Problem haben...
einer sogar mit einer Radeon 6670 problemlos, ein weiterer mit ner älteren AMD FirePro D300.
Stattdessen findet man Berichte wo der Monitor das Problem war(user nutzte NV + AMD) und zurückgegeben/repariert werden musste.
Deine Fehlersuche war eventuell lückenhaft.
 
zeromaster schrieb:
"Problem" ist so ein relativer Begriff. Es wird die 970er Kunden etwas früher bzw. wohl eher zu etwas mehr Einschränkungen bei VRAM-Hungrigen Optionen zwingen um komplett flüssig spielen zu können. Das wars. Mehr Auswirkungen wird es nicht geben und auch die sogenannt "zukunftssichereren" echten 4GB-Karten werden quasi zeitgleich genau dort ankommen. Die einzige "zukunftssichere" Karte dürfte momentan die 290x 8GB sein oder die alten 6GB 780er... aber die sind allesammt auch nicht wirklich zukunftssicher, sind sie doch auch heute schon zu lahm für 4K und alles auf max. Fazit: Die 970 ist eine top Karte, sie ist aber im Moment zu teuer und die Kunden wurden absolut unnötig hinters Licht geführt. Dies alles steht wiederum für mich "außer Frage" ;)

Sapphire scheint hier ein nettest Spielzeug in Form der R9 290X Tri-X OC mit 8 GB zu haben:
http://ht4u.net/reviews/2015/sapphire_radeon_r9_290x_tri-x_oc_8_gb_test/

Dank des eigenen Karten Designs in Idle und Last etwas sparsamer aber bei der Blu-ray Wiedergabe und dem Multi-Monitor-Betrieb mit 3 Monitoren (also da wo der Speichertakt wieder angehoben wird) macht sich der zusätzliche Speicher dann doch wieder negativ bemerkbar.
Leider wurde dort nicht wirklich auf den zusätzlichen Speicher hin getestet. Bei der Lautstärke des Kühlers gibt es kaum was zu bemängeln
 
C0r3 schrieb:
Bei der GTX 660 gab es doch auch dieses "Feature". Bei der GTX 970 ist es anteilig weniger langsamer Speicher, aber es als neue Erfindung zu bezeichnen, ist doch sehr übertrieben.
Der zwischenzeitliche Rückschritt auf die HD6950 tut grade weh, aber morgen geht (nicht mehr ) meine 970 zurück an MF.
AC Unity auf fast maximalen Einstellungen bei 60 FPS 1920x1080 gegen die 6950 auf niedrigsten Einstellungen mit mickrigen 20 FPS bei 1280x720 tut doch schon weh. :(
Dann muß wohl eine R290 her.

Schau mal bitte nach ob in dem Spiel das GPU Physx genutzt werden kann.
Wenn ja dann schau bitte mal in den Optionen des Spiels nach ob sie dort auch so "clever" waren wie bei den Metro Titeln bei denen die erweiterte Physik standardmäßig aktiv war und die Performance aufgrund des dann gnadenlos überlasteten CPU Kerns massiv in den Keller ging.
Erweiterte Physik (GPU Physx) aus (welche auf der Radeon eh nicht berechnet werden kann und dann an die CPU weitergereicht wird) und schon flutschte es bei der normalen Physik.
 
Meine Güte... Der ganze Aufriss steht in keinem Verhältnis mehr zur eigentlichen Sache.

Die technische Begründung ist vom Prinzip her absolut plausibel, wenn man denn sein Hirn benutzt. Falsch ist jedoch, dass die 970 3 GB gehabt hätte, denn es wären eher 3,25 oder 3,5 GB gewesen. Erklärung dazu nochmal hier.

Die Vermarktung ist klar beschissen und meiner Meinung nach kein Versehen, sondern was den Speicher angeht absichtlich möglichst schön dargestellt. Bei den ROPs kann ich mir erklären, wie es ursprünglich zu dem falschen Wert kam, aber absolut nicht, wie so ein Fehler bis lange nach dem Launch nicht korrigiert werden konnte. Allerdings sehe ich hier auch keinen Grund, warum Nvidia hier absichtlich täuschen sollte, denn ob da nun 64, 56, 52, 128 oder 3 ROPs stehen, ist dem Kunden doch vollkommen egal. Das fällt doch eh nur in die Kategorie "Nett zu wissen", aber eine Kaufentscheidung fällt doch darüber kein Mensch. Klar kann man daraus ableiten wie stark die Karte im Vergleich zur größeren Variante beschnitten ist, aber das macht doch kein Mensch, um damit tatsächliche Rückschlüsse auf die Leistung zu ziehen und damit eine Kaufentscheidung zu begründen.

Ich will das Ganze jetzt nicht schön reden, aber ganz ehrlich gesagt halte ich es im Vergleich zu anderen Sachen auch für kein sooo großes Ding. Wenn man mal mit AMD im CPU-Bereich vergleicht, dann werden die FX-Prozessoren auch überall als vollwertige 8-Kerner verkauft. Mit Taktraten jenseits der 4Ghz. Nur weil man es online in Foren nicht so sehr mitbekommt, heißt das nicht, dass AMD damit keine erfolgreiche Bauernfängerei betreibt. Der größte Unterschied ist hier, dass die GTX 970 dennoch in zahlreichen Tests gute Ergebnisse erzielt hat und deshalb auch bei "informierten" (wenn ich hier so einige Beiträge lese, möchte ich das am liebsten irgendwie anders ausdrücken) Käufern erfolgreich war. AMD sagt auch nirgendwo, dass die Angabe der Kerne ihrer FX-CPUs nicht mit den Kernzahlen der Konkurrenz zu vergleichen ist und die Leistung der einzelnen Kerne trotz hoher Taktraten nicht so hoch ist. Gerade in viel verkaufte billige Komplettsysteme werden die FX-CPUs mit ihren Papiertiger-Werten gesteckt und die zahlreichen ahnungslosen Komplett-PC-Käufer bei Mediamarkt und sonstwo machen auch einen großen Marktanteil aus, von dem man hier aber fast nichts mitkriegt.

Natürlich hätte ich mir wie jeder andere auch eine anständige Vermarktung gewünscht und bin enttäuscht über das Vorgehen von Nvidia. Ich finde aber, dass die Tatsachen, die falsch beworben wurden in keinem Verhältnis mehr zu dem ganzen Theater stehen.
 
Ich finde dieses Amd trollen einfach zum lachen,
Manche können es sich nicht eingestehen das ihre Liebe, sich für sie einen Dreck interessiert....
----------------------------------------------------------------------------------------------------------
Und um das auszublenden oder gut zu reden trollen die lieber ATI
Diese Kompetenz ist wahrlich genial.......................:freak::lol:
.
 
Zuletzt bearbeitet:
t3chn0 schrieb:
It's not a Bug, it's a Feature ^^.

Genau das hab ich mir auch gerade gedacht ^^

Hängt wohl von der Sichtweise ab.
Die jetzige Konfig ist immerhin besser als wenn man "nur" 3GB verbaut hätte.
Aber natürlich schlechter als wenn man das Interface unbeschnitten gelassen hätte.

NVidia selbst sieht natürlich nur das Positive, die User denen 4 uneingeschränkte GB versprochen wurden eher weniger...
 
die 970 kommt zu über 90 % an die 980 ran und kostet fast nur die hälfte. was wollt ihr eigentlich? die performance einer 980er zum preis einer 970er?

das würde ich mal 'etwas' abgehoben nennen. also kommt mal wieder runter leute.
 
PHuV schrieb:
So ein Blödsinn, nimmt eine aktuelle ATI-Karte 260X oder 280, die produziert an einem LG 31MU97-B über DP mit 4096x2160@60Hz permanente Bildfehler und -störungen. Und jetzt nenne mir mal einen weiteren Hersteller, der 4096x2160@60Hz am DP-Ausgang kann. Intel scheidet hier schon mal aus, die meisten Mainboards bieten nur 3840@2160@60Hz. Und dann?

Bevor man anderen der Lüge oder Unwahrheit bezichtigt, sollte man doch sich schon vorher informiert haben oder etwas auskennen. :rolleyes:
Du willst mit einer 260x bzw einer 280 (Niveau GTX 960) 4k machen? und das benutzt du als Argument? :lol:
Ergänzung ()

ankabo schrieb:
Wie gesagt, du hast es nicht gelesen.
https://www.computerbase.de/2014-10...leich/3/#diagramm-bioshock-infinite-2560-1600

Nur in Crysis 3 kann die Karte in Sage und Schreibe 2 Frames davonziehen. Und was ist mit den anderen Games?

Schau dir mal die Treiber an, mit denen getestet wurde :) - Davon abgesehen vergleichst du eine r9 290x REFERENZ im uber Mode mit custom 970er /clap
 
Ich verstehe nicht warum jetzt das gleiche Theater losgeht wie nach dem Statement von Nvidia bzgl. des limitierten Speicher`s. Was der CEO sagt ist doch nichts neues, sondern genau das was beim Statement von Nvidia durch einen Ingenieur mitgteilt wurde, nur das dieser es nicht mit so blumigen Worten verkauft hat, sondern eher Sachlich wie ein Techniker eben so ist. Nvidia hätte die GTX 970 mit 3.GB/Vram verkaufen sollen und die GTX 980 mit 4.GB/VRam, dann hätte man sich diesen ganzen Ärger sparen können und auch der Unterschied zur GTX 980 bezgl. des Mehrpreises wäre deutlicher gewesen. Man kann ja nur vermuten, warum Nvidia überhaupt diesen Schritt mit dem neuen Feature gehen mußte, ich Denke es hatte 2.Gründe.

Erstens hätte man es so gelassen wie bei der GTX 980 wäre der Unterschied in der Leistung wohl noch geringer gewesen, als dieser eh schon ist und keiner hätte wohl 200-250 € mehr ausgegeben, wegen 3-5 FPS. Zweitens wollte man wohl unbedingt eine 4.GB Grafikkartenversion rausbringen, die sich zum einem von der GTX 780èr Serie abhebt und zum anderen auch was den Vram betrifft mit den AMD Grafikkarten in diesem Segment, gleichzieht. Also hat man dann die GTX 970 so beschnitten und modifiziert wie dies nun der Fall ist und das der CEO dies als neues Feature verkauft, kann man machen, aber dann zum Release und nicht nach all dem Shitstorm den es gab und zum jetzigen Zeitpunkt.
 
Laggy.NET schrieb:
Also da bin ich mir nicht so ganz sicher. In den Tests wird immer ein starkes Ruckeln sogar komplette kurzzeitiger aussetzer bemerkt, sobald die 3,5 GB überschritten werden (siehe CB Test)
Wenn ich bei meiner GTX980 die 4 GB überschreite, dann hab ich aber erstmal KEIN RUCKELN! Mordors Schatten, 6 GB Texturen anyone? Selbst kombiniert mit Downsapling gehen nur die FPS runter, von Nachladerucklern oder gar kurzen Aussetzern ist nichts zu spüren. Die Frametimes sind perfekt.

tobi14 schrieb:
Doch sie wird schlechter! [...]

Das leuchtet ein, danke! Dann sieht es wohl doch eher danach aus, als hätte Nvidia versucht, diesen Makel zu "kaschieren", indem man gar nicht erst darüber berichtet.
 
Auch wenn es wohl der ein oder andere gut kennt, hantiert Nvidia frei nach dem Motto: "It's not a bug, it's a FEATURE"

Kann das absolut nicht nachvollziehen, dann hätte sie doch lieber direkt beim Grafikchip mit "designverbesserungen" anfangen sollen das die Karte direkt 4GB und mehr ansprechen kann
 
Merkwürdig das eben dieses Feature nicht als Super Dupper neue Funktion vermarket wurde. Wie konnte man so ein tolles Kaufargument nur vergessen?

Mir kommt keine Nvidia Karte mehr in den Rechner, durch dieses dreiste Statement erst recht nicht. No Way.
 
FRUST :grr::grr::grr:
Jetzt hab ich nach langem Hin und Her und Auseinandersetzungen mit meinem Händler meine GTX 970 gerade letzten Freitag zurück geschickt.
Nach der einwandfreien Aufklärung durch NVIDIA's CEO habe ich die Technik leider erst jetzt verstanden. Hab meinen Händler sofort angerufen und ihm mitgeteilt, er solle mir meine GTX 970 bitte sofort zurück geben. Konnte der aber nicht mehr.
Naja, was soll's dann werd ich mir die Gigabyte GTX 970 G1 Gaming gleich bei einem anderen Händler bestellen.
Das war ja echt ein totales Versagen der Marketing- Abteilung. Und nur deswegen muss jetzt nochmal ein paar Tage warten um wieder ne echt gute Karte in meinem PC zu haben. Aber jetzt muss ich auch erstmal durch drei Foren durch und dort meine Beiträge löschen, bzw. editieren.

Liebes nvidiateam: WOLLT IHR MICH JETZT EIGENTLICH KOMPLETT VERARSC:::????? :kotz: Erst bei den specs, ich nenne es mal sehr vornehm und zurückhaltend, Mist bauen und dann noch versuchen mich zu einem grenzdebilen Menschen zu degradieren. Versucht das bitte in 40 Jahren nochmals. Dann bin ich fast 90- könnte dann klappen....

Komme grade von der Arbeit heim und hab ne Karte von DHL in meinem Briekasten. Ich kann morgen bei der Post meine GTX 980 abholen.
Ich werde die Karte erstmal nicht einbauen. Muss nochmal in mich gehen. Ich hatte mich für die 980 entschieden, da ich wahnsinnig gerne und viel in 3D zocke. Und wenn Spiele es unterstützen ist auch Physix saugeil.
Aber eventuell schei... ich was dadrauf und hol mir ne rote und veramsche meine 3D-Vision2- Brille. Mann, Mann, Mann, ist echt zum Kotzen. Warum machen die das? :mad:
 
Lasst AMD raus hier. Es ist echt Unfassbar, diese Aussage.

@Hagen_67


Wat??? Bau die mal schön ein^^ Du hast von der 970 verarsche gewusst als du die 980 bestellt hast.
 
Zurück
Oben