News GeForce GTX 970: Nvidia bestätigt Limitierungen am Speicher

nur ein Mensch schrieb:
Wenn das stimmen sollte und bei der 380 einfach nur auf den Stromverbrauch geachtet wird, dann kann das für Nvidia ziemlich bitter werden.

Da wird nichts bitter Nvidia. Nvidia hat ein höheres Research & Development Budget als AMD für all ihre Geschäftsbereiche (inkl. CPUs).
Zudem zahlen sie ihren Engineers besser und locken die besten Leute eher zu sich. AMD muss erstmal versuchen wieder besser mitzuhalten und dann Schritt für Schritt anzugreifen. Die "390x" wird natürlich auf einen sehr potenten neuen Maxwell treffen, irgendwann dieses Jahr.

Was Nvidia jetzt abgezogen hat, kann AMD nochmal etwas Schwung geben wenn sie es gut nutzen.
 
Zuletzt bearbeitet:
Sowie Intels jahrzehntelange Machenschaften auf ähnlichem Niveau AMD Schwung gegeben haben? Sehe ich leider nicht mehr kommen. Solang die Kunden die nVidia beschissen hat ihre Karten mit "ist ja trotzdem super" behalten oder mit "dann hole ich mir für 200,-€ mehr die Karte die die Spezifikationen vielleicht erfüllt" reagieren weil sie offenbar in der Markenhuldigung eine Ersatzreligion gefunden haben und sich mit der Begeisterung eines bayrischen CSU-Wählers bescheißen lassen kann AMD nichts ausrichten.
 
max_1234 schrieb:
Tomshardware testet auch AMD Karten, Freund der Berge.
http://www.tomshardware.de/amd-radeon-r9-290-290x-test,testberichte-241458-7.html

Wie man sieht schneiden diese so gut wie IDENTISCH ab.

Also pls stop bullshitting, your argument is - once and for always - INVALID.

mfg,
Max

Hab ich irgendeine Wertung mit reingebracht? Evtl. solltest du mal darüber nachdenken, wie du gegenüber Anderen auftrittst, vor allen Dingen gegenüber denen die zu dieser Thematik die selbe Meinung haben ;)
 
SuddenDeathStgt schrieb:
Ich kann mich nur wiederholen ..."Nur ein starkes, leistungsfähiges AMD fordert auch entsprechend" & das kommt uns Kunden allen zugute, egal ob grün oder rot.
Ich hoffe mal, dass AMD im Bereich GPU gut vorlegt & NV damit nötigt, den Big-Chip auch big werden lassen & keine Häppchen serviert & das auch noch zu astronimische Preisspannen.
Davon würden alle provitieren. Außer bei NV wäre ggf. die Gewinnspannen geringer ...aber es gibt schlimmeres.^^
Ehrlich gesagt mach ich mir eher Gedanken ob Nvidia mit halten werden kann dieses Jahr. Während AMD so einiges vorlegt hat NVIDIA noch nicht viel angekündigt. Wann kommt HBM dort? Ohne kann Nvidia nicht mithalten mit den kommenden AMD GPUs
Ich sehe dieses Jahr Nvidia mit sich selber mehr beschäftigt als mit der Konkurrenz. Die 970 Pleite und den GSync Schwindel wird auch Nvidia teuer bezahlen müssen und der Ruf ist ruiniert, was sich bei den kommenden Produktankundigungen auswirken wird.

Ich hoffe nur Nvidia stürzt nicht zu weit ab und schaffen es dieses Jahr zumindest dran zu bleiben an AMDs schnellen Innovationen im GPU Bereich. Bessere Fertigung, besseres Speicherinterface, besserer VRAM und unterstützung geltender Standards sind schwere Rückstände die Nvidia wohl erst in 2 Jahren einholen wird...der Rückstand ist hier enorm.
 
@Daedal
Keine Sorge um nVidia, der Plan B steht. Die Versuchen doch allen viel versprechenden Titeln GameWorks unterzuschieben, damit die Benches wenigstens besser aussehen :lol:
 
Zuletzt bearbeitet:
Wohl kaum. Doch ist es genauso berechtigt wie die geäußerten Sorgen um AMD. Nur hat das eben hier absolut nichts zu suchen und schon gar nicht jemand der am laufenden Band negative Gerüchte auf so eine Art streut.
Ergänzung ()

Miuwa schrieb:
@ Daedal: ich glaube du träumst leider.
Wann kommt denn HBM bei Nvidia? Soweit bekannt hat AMD durch die Mitentwicklung 1 Jahr Exklusivrecht. Ich meine sie hätten ja auch ein "HBM-Modul" erfinden können das nur mit AMD-GPUs funktioniert. So kommen Nvidia-Käufer wenigstens 1 Jahr später in den Genuß von schnellem sparsamem Speicher.
 
deathscythemk2 schrieb:
@Daedal
Keine Sorge um nVidia, der Plan B steht. Die Versuchen doch allen viel versprechenden Titeln GameWorks unterzuschieben, damit die Benches wenigstens besser aussehen :lol:

Sorry für die harte Antwort vorher .. war nur ein "in your face" Gedanke, da AMD Partnerkarten durchschnittlich nur etwa 1.5 db lauter sind als Nvidia Partnerkarten, aber das gleichzeitig das Hauptargument aller Grünen ist bzw. war. Nun wirds wieder der Verbraucht (sagenhafte 60W oder 20Cent/Monat höher wenn GPU auf 100%).
Stargate Avatar :D

mfg,
Max
 
@Daedal: Die Frage lautet, was für ein Nutzen hat HBM wenn der Speicher so gut wie kaum limitiert? Antwort: bis auf Stromersparnis garkeinen, noch kann man mit GDDR5 die Leistung komplett ausfahren. In einem Jahr gibt es Pascal der auch HBM benutzen wird. Den Stromspar Vorteil hat AMD momentan bitter nötig, aber immerhin sind sie innovativ.
 
http://www.3dcenter.org/news/highend-grafikkarten-samt-crossfire-sli-unter-5k-getestet

Jaja die Potente 3.5GB effektiv karte ist ja MINDESTENS so schnell wie eine R9 290 X...oder auch nicht.

Und die games dort in 5k waren nun wahrlich keine Resourcenfresser.

DAS ist es was die AMD karten auszeichnet. Die werden noch ihre Runden drehen in den Rechnern wenn die GTX90/GTX980 schon längst durch die nächste generation abgelöst worden sind...

Kein Wunder das AMD zahlentechnisch so wenig Umsatz macht - die müssen einfach auch mehr solche geplanten Obsoleszenzen einbauen wie andere Firmen....

*oh wait - weil sie das nicht tun kaufe ich ja die AMD Produkte erst*
 
@Elite_Warrior
Der Speicher limitiert doch jetzt schon, dass war doch überhaupt der Grund für den Thread hier. Es wird ja in den nächsten Jahren nicht besser Oo
 
Das Beste an der Geschichte ist ja, dass es überhaupt Jemand herausgefunden hat. Kompliment an diese Leute. Und mir war Computerbase eigentlich etwas zu grün gefärbt, was ich wahrscheinlich auch sehr subjektiv wahrgenommen habe. Weiter so. So lese ich Computerbase immerwieder gerne - kritisch und der Wahrheit entsprechend. :king:
 
Elite_Warrior schrieb:
@Daedal: Die Frage lautet, was für ein Nutzen hat HBM wenn der Speicher so gut wie kaum limitiert? Antwort: bis auf Stromersparnis garkeinen

Naja, selbst wenn es "nur" die Stromersparnis ist, so an die 50-70W pro Chip Ersparnis sind schon ordentlich. Dazu spart man noch einiges an Chipfläche ein (3dCenter spricht von 9-11%), womit man wieder Platz und Leistung für z.B. zusätzliche Shadereinheiten frei hat.
Ist aber alles graue Theorie, mal schauen, was sie draus machen.

edit:
Achja, und wegen des viel breitere Interfaces kann man auch billigeren Speicher verbauen, weil er nicht mehr so hoch takten muss.

Details:
http://www.3dcenter.org/news/ein-moeglicher-grafikspeicher-der-zukunft-high-bandwith-memory-hbm
 
Zuletzt bearbeitet:
pr0fessor schrieb:
. Und mir war Computerbase eigentlich etwas zu grün gefärbt, was ich wahrscheinlich auch sehr subjektiv wahrgenommen habe.

Naja, teilweise wurde schon aus nicht objektiv nachvollziehbaren Gründen Nvidia Hardware Empfehlungen ausgesprochen wo sich viele einfach nur gefragt haben warum...
 
Curry Heatcheck schrieb:
Irgendwas muss von Nvidia ja noch kommen. Laut den Händlern sollte ja "Ende der Woche" noch ein offizielles Statement von Nvidia kommen. Ich wäre ja dafür, jedem 970 Käufer ein kostenlos/stark reduziertes Upgrade auf eine 980 zu geben. Aber ich vergas, es handelt sich ja um Nvidia :eek:
Ein kostenloses Update auf die 980? Das wäre sicher genau die richtige Message für alle, die eine GTX 980 gekauft haben.
Ich muss nachwievor schmunzeln wie hier ständig erwartet wird, dass die GTX 970 dieselbe Leistung bringen soll wie die die GTX 980. Oder es wird ruckeln bemängelt in Szenarien, die auch eine GTX 980 nicht mehr schafft.
Es handelt sich um eine kastrierte Karte - selbstverständlich ist diese schwächer, dafür im Verhältnis auch sehr viel günstiger.
Für Nvidia wäre es sicher viel schlauer gewesen die beiden Karten mit 8GB (980) und 7GB (970) anzubieten, dann hätte man sich diese komische Speicheranbindung sparen können und mit 7GB wären die meisten auch glücklich gewesen. Als Ingenieur hätte ich bei der aktuellen Lösung auch bedenken gehabt, aber eine 3,5 GB Karte wollte man wahrscheinlich nicht machen.
 
Ein 970-Geschädigter der damit "droht" eine 980 zu kaufen wenn AMD nicht bald mal was released. Es muss ein echtes Naturwunder sein das es mir gelingt mit einer Single 290X nVidia-GameWorks-Triple-A-Immersive-Bullshit-Titel wie Unity, FarCry4, Mordor und Dying Light allesamt in 3440x1440 optisch ansprechend spielen zu können, so meilenweit abgeschlagen wie die leistungstechnisch ist.

Der einzige Grund das mir am Hinterkopf die Haare ausfallen ist auch nicht erblich bedingter Haarausfall wie mir Dr. Klenk weis machen will sondern ausschließlich die hohen Energiekosten aufgrund von 16h Furmark-Spielen am Tag wenn ich nicht gerade Bitcoins mine.

Ja, - in der Tat - so in etwa muss es sein. Und dann natürlich die schlechten Treiber die ich seit über drei Jahren auf derselben Windows-Installation überwiegend einfach drüber bügle.

Vielleicht kann ich mich unter Artenschutz stellen, ausstopfen und in einem Museum bewundern lassen?
 
Vielleicht kann ich mich unter Artenschutz stellen, ausstopfen und in einem Museum bewundern lassen?
Ein schöner Gedanke, allerdings glaube ich nicht dass echte Nvidia Fanboys Museen besuchen ;)

Schön finde ich dafür dass es doch noch so viele Menschen gibt die ein bisschen hinter den propagandierten Scheißhaufen blicken. Frage mich gerade was das für Nvidia Anhänger für ein Gefühl ist.

Die, die grad die GTX 970 zurückgegeben und auf eine 290X gewechselt sind; wie fühlt es sich an keinen Leistungsunterschied festzustellen. Ich hoffe es zerbricht für einige nicht die Welt, man geht hier ja teilweise schon religiös an das Thema.

mfg,
Max
 
Zuletzt bearbeitet:
Mannoman was für ein Reinfall. Einige 970er in den Händen gehabt, bis mal eine dabei war, die nicht zirpt ohne Ende. Dann ewig auf einen Waterblock von EK gewartet. Diesen dann per Express voller Freude nach Deutschland liefern lassen. Endlich alles verbaut, endlich spielen können. Und nach weniger als 3 Monaten ist der Spaß wieder vorbei. Was für eine Enttäuschung. Ich war schon als die Karten so gefiept haben kurz dafür, die Serie auszulassen bzw. eine Alternative zu suchen.
Akzeptieren werde ich das nicht. Da werd' ich in nächster Zeit wohl meinen Loop wieder entleeren und die Karte aus dem Kreislauf nehmen müssen und den (sehr schönen) Kühlblock, der fast unbenutzt ist mit Verlust verkaufen.

Danke Nvidia.
 
Zuletzt bearbeitet:
Zurück
Oben