News GeForce-Grafikkarten: Nvidia sprengt Erwartungen mit Rekordzahlen

Wadenbeisser schrieb:
Mit einem entsprechend dimensionierten Kühler könnte die Karte trotz des höheren Verbrauchs dennoch genau so leise sein.
Wieso soll man potenziell mehr für einen aufwändigeren Kühler ausgeben, wenn es die Konkurrenz besser macht?
Zumal die Hitze auch noch aus dem Gehäuse abgeführt werden soll.

Und weißt du, wenn die NVidia Karten in Tests im Schnitt 10° weniger heiß werden, dann ist es schon rein vom Gefühl her nicht mehr so geil, eine AMD Karte zu kaufen.

duskstalker schrieb:
was ist denn gleichwertig? gleiche fps wie nvidia mit gleichem verbrauch in einem gameworks spiel? :rolleyes:
Wie gesagt:
AMD soll ihr eigenes Gameworks machen. Hatte in meinem Post ja lang und breit erklärt, daß AMD in Sachen Innovationen und Software gepennt hat.
 
Warum sollte Nvidia es eilig haben die nächste Grafikkartengeneration zu gemäßigten Preisen auf den Markt zu werfen?

Ein Konkurrent für die Karten aufwärts der GTX 1070 gibt es praktisch nicht. VEGA 56 & 64 sind einfach viel zu Teuer und haben dazu noch einen wesentlich höheren Stromverbrauch. Diese Karten gingen eigentlich nur weg, wenn es diese als Aktion gab zur UVP.

Was der Reflash von VEGA bringen wird mal abwarten.

Für Nvidia ist es besser zu reagieren und nicht agieren.
 
@duskstalker
Wie gesagt, ich vermute eher das die Architektur nicht für diese Taktfrequenzen ausgelegt war. Hieß es nicht auch mal das der Großteil der im Vergleich zum Fiji zusätzlichen Transistoren für die Taktsteigerung drauf ging? Ich vermute das man bei der Pascal Generation mit geringeren Taktfrequenzen rechnete (Maxwell lag ja noch im Bereich bis 1200 MHz) und deshalb die Taktfrequenz übermäßig steigern musste.

Beim Thema HBM2 konnte ich mich jetzt nur an eine Taktfrequenz von 1000 MHz erinnern, womit die Rechnung im Vergeleich zum Fiji ziemlich einfach war. Halbe Breite des Speicherinterface, doppelte Taktfrequenz, gleiche Speicherbandbreite.
Ergänzung ()

@Pizza-König
Warum gaben/geben Leute mehr Geld für ne Geforce mit weniger Speicher und schlechteren Zukunftsaussichten aus?

All die dollen pseudo Argumente hatte ich auch schon von anderer Seite aus gelesen und nur eine Konstante ist für mich erkennbar. Solche Geschichten sind nur dann ein problem wenn sie nicht den Marktführer betreffen.
Für mich ist die Geschichte mit dem Verbrauch recht einfach. Ich habe mir für die Grafikkarte eine Obergrenze gesetzt da das Netzteil ohnehin darauf dimensioniert ist (300W) und schaue was für mich die beste Lösung ist.

Und du willst allen ernstes auch noch so einen Gameworks Murks von AMD? Dann können wir den PC Spiele Markt auch gleich begraben wenn die Spiele dann nur bei jeweils einem Chip Lieferanten performant laufen und der Rest von Gameworks stützt sich größtenteils auch nur darauf das die Spiele Entwickler es nicht selbst basteln müssen.

Innovationen gab es von AMD mehr als genug, sowohl in Hard- als auch in Software nur werden sie ganz einfach nicht genutzt.
 
Die 580 ging nur über den Preis. Wer will denn schon so einen Heizofen im PC haben.
Nvidia hat schon die nächste Grafikkartengeneration bereit, die warten nur darauf, dass AMD was präsentiert.
 
Simanova schrieb:
Die 580 ging nur über den Preis. Wer will denn schon so einen Heizofen im PC haben.

"Heizofen" geht für mich erst ab 200W TDP los. 185W gehen - sonst wäre die 1080 mit 180W ja auch schon ein Heizofen.
Aber ja, ich weis auch nicht, warum AMD den Verbrauch von RX480 zu RX580 so stark hochgeschaubt hat. Die 480 war gut abgestimmt mMn.
Aber gegenüber der 1060 sprechen für die 580 noch die 2GB mehr VRAM und Freesync. Insofern sehe ich die 580 vor der 1060. Nur die beiden Vegas müssen sich den Nvidia-Gegenstücken geschlagen geben.
 
Zuletzt bearbeitet:
Ich bin mir ehrlich gesagt nicht sicher welche 580er gemeint war. Die von AMD oder die von Nvidia.
 
ist nicht überraschend, da ja kaum wirklich ein wettbewerb vorhanden ist.
bei aller symapthie díe man in der regel kleineren marktteilnehmern zuspricht, aber amd hat es mir als (potentiellen) kunden in den letzten 3-4 jahren verdammt schwer gemacht.

(ich will hier nicht amd bashen, sondern lediglich die bestandaufnahme aus meiner sich als kunde zusammenschreiben.)
wiederauferlegen alter chips macht auch nvidia, das ist sicher, aber das refreshen alter lösungen muss man sich gegenüber der konkurenz auch leisten können.
da war die geschichte mit den r9 2xx auf r9 3xx einfach nicht gut - das kann keiner gut geheißen haben in der damaligen marktsituation.
(außerdem entwickelt man solche prozessoren wie cpu's/gpu's nicht in einem jahr, sondern plant teilweise jahre im vorraus; nach 20-24 monaten die alten chips so aufzuwärmen in dem midrange segment ist schlechte planung und ein neckbreaker.)

als ich ende 2016 eine potente graka für wqhd haben wollte und von meiner gtx770 umsteigen wollte stellte ich fest dass es zwar brauchbare freesync monitore gab, aber eben keine konkurenzfähige amd lösung in meinem preisbereich weit und breit. hätte ich mich entschlossen auf vega zu warten, hätte ich gut ein jahr warten müssen und hätte wahrscheinlich doch keine kaufen können.

und nun? nvidia legt demnächst wohl nach und bei amd ist vor 2019 nichts mehr zu erwarten - selbst bei größter sympathie - welcher teil der kunden kauft da sympathieorientierung und welcher teil möchte lediglich das möglichst brauchbare produkt für sein geld erhalten?
dabei hat amd schon mehrfach bewiessen dass sie eine konkurenz sein können: vor langer zeit mit den 9000er radeons..oder mit der x19xx serie..oder mit den hd4000/5000...oder die hd7950/7970er tahitis...
das notorische festhalten an noch nicht reifem hbm ist da sicherlich nur ein teil des problems...so gut hbm auch ist, so teuer ist er im vergleich zu gddr auch.

vega hätte sicherlich potential gehabt, aber dass die fertigungskapazitäten so schlecht seinwerden hat mich sher überrascht. das und die minigfolgen sind zumindest bei den gamern fatal.

ich drücke amd wirklich die daumen, den bevor ich das nächste mal nvidia 500+€ für eine mittelklasse karte zahlen muss, zahle ich lieber amd geld für eine solide und faire lösung; ich habe sowohl freesync als auch g-sync monitore daheim, also bin ich zumiundest da nicht gebunden...
 
Wadenbeisser schrieb:
@Gschwenni
Das ist auch nicht mal annähernd das gleiche Verhalten

Doch, versprochene Dinge für Produkte nicht liefern, das ist für mich das gleiche Verhalten eines Unternehmens.

denn die RX560er hatten von Anfang an das womit geworben wurden udn die gestitzten Varianten waren

Ich rede von Vega und deren Features, nicht von der RX560.

(wenn ich mich recht erinnere) zum einen nicht für den europäischen Markt gedacht und sollten zum anderen mit einen D gekennzeichnet werden, woran sich aber die Kartenhersteller und Händler nicht hielten.

Da erinnert du dich falsch, AMD wollte zwei Karten unter dem gleichen Namen bewerben und das im Nachhinein einschieben.

Und ja, am Anfang hatte der Treiber dafür noch keine Unterstützung aber wie es aktuell ausschaut...keine Ahnung denn es ist um das Thema verdammt still geworden und es gibt bis heute keine Software mit der man das prüfen könnte.

AMD hat nie was zu der primitive shader Geschichte geliefert, beworben haben sies trotzdem.

Im Zweifelsfall könnte das einen ähnlichen Status haben wie AMDs TrueAudio. Es ist da, es ist nutzbar und wird trotz der Vorteile (vermutlich aufgrund der Marktanteile) nicht genutzt.

Man weiß wenigstens dass True Audio funktioniert.

Wenn du keine Diskussion darüber haben willst dann breche sie nicht mit halbgaaren Behauptungen vom Zaun.

Diskutieren gerne, solange Fehler von Nvidia oder AMD nicht verteidigt werden, denn das muss man nicht tun.
 
Doch, sie hatten genau das geliefert was versprochen wurde und die 560er wurde erst später gestutzt.
Auch wurden Features bei der Vega nachgeliefert oder deren Nutzbarkeit ist höchstens fraglich.

Im Gegensatz dazu existiert keine GTX970 mit den Daten mit der sie vorgestellt wurde. Das Ding war von Anfang an eine Täuschung des Kunden und was du treibst ist der Versuch das zu zerreden.
Was deine Motivation dazu ist kann jeder für sich entscheiden.
 
Warum sprechen hier alle von Wettbewerb und Nvidia sei ja soo viel besser als AMD? Im letzten Jahr hat AMD wohl quasi jede GPU verkaufen könne die sie produziert haben. AMDs Umsatz ist in diesen Zeitraum massivst gestiegen (das waren über 95%!!). Also mal Butter bei den Fischen. Der Mining Boom des letzten Jahres hat bei beiden Unternehmen für sehr guten Umsatz gesorgt. AMD konnte sich dadurch sehr gut erholen. Also absolut kein Problem. Nvidia geht es gut und AMD geht es aktuell auch gut.
 
Danke Toxicity. Genau das ist es nämlich. AMD hat eine Steigerung im letzten Quartal in der GPU Sparte von fast 100% gehabt und somit definitiv Anteile zurück gewonnen. Und das nicht dank der undankbaren Gamerkiddyszene. Sondern dank der Käufe durch Miner die nämlich Leistung interessiert. Denn Vega hat Leistung genug, die rigoros von der Gamingszene ignoriert wird.
Hier wird von Kühlungsproblemen und Hitze gesprochen und man merkt wie wenig sich wirklich mit den Tests auseinander gesetzt wurde.

Ebenso ist es halt das übliche nicht Wissen was verbreitet wird. Fakt ist das die Geforce Karten eben beschnitten sind um in genau 1 Bereich zu funktionieren: Gaming.
Mehr können die Karten eigentlich nicht wirklich gut.
Bei Polaris und Vega ist das eben anders, da dies Allroundkarten sind, die eben mehr können. Unter anderem eben Gaming und Mining. Gerade das macht diese Karten eben interessant für mehr als nur 1 Käufergruppe.

Gäbe es sowohl von Polaris als auch von Vega reine Gamingkarten, die genauso beschnitten wären wie die Geforce Modelle bei nVidia, dann sähe die Sache definitiv anders aus. Gibt es aber nicht. Und trotzdem schlagen sich sowohl Polaris als auch Vega sehr gut. Klar die Stromaufnahme ist höher und auch die dadurch entstehende Wärme ist schwerer zu kühlen und das sind eben die Kritikpunkte die im Raum stehen. Aber sie bieten trotzdem mehr als genug Gamingleistung. Denn effektiv könnte hier kein User der sich immer beschwert über AMDs GPUs feststellen ob eine Vega oder eine nVidia Karte im Rechner sitzt, wenn er einfach nur spielt. Die Spiele laufen sowohl bei nVidia als auch bei AMD. Und das ist eigentlich das einzig wichtige.
 
Dark_Knight schrieb:
AMD hat eine Steigerung im letzten Quartal in der GPU Sparte von fast 100% gehabt und somit definitiv Anteile zurück gewonnen. Und das nicht dank der undankbaren Gamerkiddyszene. Sondern dank der Käufe durch Miner die nämlich Leistung interessiert. Denn Vega hat Leistung genug, die rigoros von der Gamingszene ignoriert wird.
Wie ist eigentlich die Luft da oben auf deinem hohen Ross?

"Gamerkiddyszene" ... denn "Kiddys" sind bekanntermaßen die Hauptabnehmer teurer Grafikkarten. :rolleyes:

Auch ist dein Gefasel von "Leistung" ziemlich neben der Spur.
Den intelligenten Gamer interessiert es nämlich in der Tat nicht, wie viel theoretische Rohleistung eine Karte hat (und entsprechend viel Strom verballert), sondern was am Ende hinten raus kommt.
Und wenn AMD hier Architekturen fährt, die bei aktuellen Spielen weniger effizient sind, dann ist das nicht die Schuld der Gamer.
 
Zumal das auch nicht ganz richtig ist. Für Etherum-Mining war die 1070 mit der RX 480/580 gleichauf mit kleinem Vorsprung und ebenso begehrt, als die RX ihren Preisvorteil verloren.
Nur bei Double-Precision lässt AMD die Nvidia-Karten weit hinter sich.
 
@Beitrag
Darüber sah es aber wegen der GDDR5X Bremse eher schlecht aus und man sollte nicht vergessen dass das Gegenstück zur Rx 580 die 1060 ist. Man wich also eher wegen der mangelnden Verfügbarkeit und der explodierten Preise der Radeons auf die Geforce Karten aus.

Fürs Etherum-Mining sind die Geforce Karten eher suboptimal, die liefen bei anderen Krypos besser.
 
Getroffene Hunde bellen @Pizza-König.
Und weniger Effizient ist auch immer Ansichtssache. Da sämtliche Tests bisher belegt haben, das sowohl nVidia Karten als auch ihre Gegenstücke von AMD in ihrer Leistung das erbringen, was die jeweilige Leistungsklasse erbringen sollte. Mal ist die nVidia Karte schneller, mal das AMD Gegenstück. Auch gerade wenn man sich das ganze über einen längeren Zeitraum anguckt von mehreren Monaten (und solange hat ja jeder min. die Grafikkarte in Verwendung), gleicht sich das ganze sogar noch mehr an. Sprich der Unterschied wird immer geringer was FPS angeht.
Und hier kommt der Kicker, da die wenigsten jedes Jahr sich eine neue Grafikkarte kaufen, sondern meist 2-3 Jahre nutzen, viele sogar eher 3-4 Jahre und manche sogar noch länger (sie kaufen sich dann halt eher eine Leistungsklasse höher um eben länger diese nutzen zu können), kommt es sogar zu einer ganz interessanten Situation. Und zwar, so war es jedenfalls in jeder GPU Generation der letzten 3-4 Generationen, dass mit der Zeit sogar sämtliche AMD GPUs grundsätzlich an ihrem nVidia Pendant in der selben Leistungsklasse grundsätzlich vorbei ziehen. Sprich immer ein paar Prozent vor der nVidia Karte liegen. Ausnahmen gibt es halt immer bei besonders stark geförderten nVidia Spielen.

Hier reden immer viele davon, das sie Leistung ja zu Zeitpunkt X brauchen und diese ja nur nVidia liefert. Aber was ist mit der Zeit nach X? Sprich wenn 1 Jahr ins Land gezogen ist oder gar 2?
Jeder soll doch die Grafikkarte von der Firma kaufen, die ihm am besten zu sagt. Aber diese Pauschalaussagen, das nur weil ein Produkt einem nicht zusagt, dieses automatisch schlecht ist. Sorry aber das ist und bleibt Gamerkiddy/Fanboy Geschwafel. Wenn es dich stört Pizza-König, das man dich in diese Kategorie einordnet, dann bleibe halt objektiver und behaupte nicht Dinge, die so gar nicht stimmen.

Fakt ist, sowohl nVidia wie auch AMD haben absolut brauchbare Grafikkarten für Gaming auf dem Markt. Und das belegen selbst die Tests hier auf CB. Und jeder der etwas anderes behauptet, lügt faktisch gesehen einfach.
 
Dark_Knight schrieb:
Hier reden immer viele davon, das sie Leistung ja zu Zeitpunkt X brauchen und diese ja nur nVidia liefert. Aber was ist mit der Zeit nach X? Sprich wenn 1 Jahr ins Land gezogen ist oder gar 2?

Das ist für die Käuferschicht irrelavant, da wird dann jedes Jahr ne neue Karte gekauft um auch ja das schnellste zu haben.
Mit der Wegwerfgesellschaft lässt sich eben gut Geld verdienen. ;)
 
Jaja, immer dieses Gelaber von wegen Nvidia Karten würden nur ein Jahr halten und dann immer schwächer werden.
Also Pascal hält sich nun schon seit 2 Jahren wacker an der Spitze, da kann man nicht mal jährlich was neues kaufen, selbst, wenn man wollte. :p
Zumal jährlich was neues kaufen auch nicht verkehrt sein muss. Dann ist die gebrauchte Karte wenigstens noch ordentlich was wert. Ich behalte meine Karten auch immer ziemlich lange, aber wenn man die alte dann verkauft, gibt's halt auch nur noch 'n Appel und n' Ei für.
 
@Beitrag
Echt? Wo steht das?
Ich lese nur das die Radeons mit der Zeit besser abschneiden.
Blicken wir mal zurück, eine GTX680 stinkt heute gegen eine HD7970 ab, die GTX780 versagt gehen eine R9 290 und in den Leistungsklassen darunter gab es auch diverse Beispiele und beim DX Featureset waren die Radeons den Geforce Modelle auch nur allso oft voraus.
Ich behaupte einfach mal das die Geforce Modelle nicht für eine lange nutzung konzipiert werden sondern nur um die Zeit bis zur nächsten Modellreihe zu überbrücken. So fallen sie zwangsläufig zurück und nur allso oft die nächste Karte gekauf. Das kurbelt wiederum die Kartenverkäufe bei der treuen Anhängerschaft an. So macht man Kohle auf kosten des Kunden. ;)
 
Mal von Kepler abgesehen, was nachweislich durch neuere Treiber langsamer geworden ist, habe ich dies so nicht gesagt.
nVidia hat starke Karten. Und beim erscheinen sind diese auch richtig gut. Erhalten ca. 1 Jahr bis 1 1/2 Jahre durch Treiber immer wieder einen kleinen Zuwachs je nach Spiel. Aber sobald die nächste Generation draußen ist, ändert sich nichts mehr.
Anders bei AMD deren Karten halt durch neue Treiber immer besser werden und durch eben den längeren Support auch über längere Strecke besser sind wie die nVidia Pendants.
Aber die nVidia Karten bleiben ja trotzdem stark.

Und das Pascal jetzt 2 Jahre die aktuelle Generation darstellt liegt halt an nVidia selber. Ebenso wie es bei AMD mit Vega ist. Dasselbe Spiel in der CPU Branche.
Man merkt eben überall, das man so langsam bei bestimmten Dingen an der Leistungsgrenze kratzt und es immer aufwendiger wird da etwas neues zu bringen. Noch hilft die Miniaturisierung, aber man sieht ja bei Intel, dass auch diese jetzt immer schwieriger wird und aufwendiger.

Wir müssen uns wohl darauf einstellen, das Technologiesprünge in diesem Bereich erst einmal länger brauchen werden. Bis halt irgendwer etwas völlig neues erfindet, was dann wieder schnellere Sprünge ermöglicht.
 
@Wadenbeisser
Wo findest du denn überhaupt solche Tests, wo alte Nvidia- und AMD-Karten nochmal gegeneinander antreten?
Und dass die 7970 die 680 schlägt ist kein Wunder mit 50% mehr VRAM. Wird der 1060 in ein paar Jahren ähnlich gehen. 1070/80 und Vega 56/64 sind da schon mal gleich auf.
Naja, mal schauen, wie es so aussieht in ein paar Jahren. Ich hab vor meiner jetzigen Karte nur AMD gehabt.
 
Zurück
Oben