News Grafikkarten: AMD verliert im „schlechtesten Quartal seit über 10 Jahren“

@kisser
Zum Beispiel den Mut zu kleineren und neueren Fertigungen, aktuell 7nm, gab es aber auch schon mit der HD Reihe.
HBM, Async Compute, unterstützen der neusten APIs, Mantle, Multi Core, integrierter Memory Controller... usw.

Ich will nicht sagen das AMD damit besser ist/war oder das andere keine Innovationen bringen, aber AMD bringt häufiger was neues, mehr nicht. Fehlende Innovationen kann man AMD nicht vorwerfen.
 
  • Gefällt mir
Reaktionen: eXe777 und Mcr-King
@KlaraElfer
Welche Innovationen bot nvidia denn in den letzten 10-15 Jahren für die Spieler?
Mehr als die Umdeutung von adaptive Sync (G Sync) und das aktuelle Raytracing Thema (das aktuell alles andere als massentauglich ist) fallen mir ehrlich gesagt nicht ein.

Die 3D Geschichte per Shutter Brille gab es bereits zu Röhren Zeiten, PhysX wurde aufgekauft und deren Nutzbarkeit künstlich beschränkt und Gameworks nützt den Spielern herzlich wenig sondern schadet ihnen durch die einseitige Bevorzugung und einher gehende Wettbewerbsverzerrung eher.

In meinen Augen sind sie vor allem auf einem Gebiet besonders Innovativ, beim Marketing und damit beim Vermitteln künstlicher Einschränkungen die vor allem eines bewirken sollen, den eigenen Profit zu steigern. (welchen Nutzen hat das nochmal für den Spieler?)

Nvidia ist eher wie Apple.
Es kommen nur selten ernsthafte Innovationen sondern begnügt sich eher mit der Weiterentwicklung bestehener Technologieen, versucht diese auf die eigene Produktpalette einzuschränken (keine direkte Konkurrenz), verlangt dafür saftige Preise und wird dafür von der treuen Anhängerschaft gefeiert. Das Vorgehen wird von der Stammkundschaft bis aufs Messer verteidigt und das obwohl sie selbst dafür die Zeche zahlen denn der Punkt wird komplett ausgeblendet oder die Verantwortung dafür auf die Konkurrenz abgeschoben. Es werden ja selbst Stagnationen und Rückschritte von der Kundschaft verteidigt. Sinn?
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Cpt.Willard, eXe777, nachtlampe und 2 andere
@Wadenbeisser
Dafür dass wir nicht immer einer Meinung sind, aber in letzter Zeit doch öfter onein. 😉
 
Selanius schrieb:
@KlaraElfer
Dann führe mal bitte auf, welche Innovationen nVidia in den letzten sagen wir 10 Jahren gebracht hat, die a) für alle nutzbar sind und nicht properitär, b) wirklich die Gamingindustrie vorran gebracht hat und c) nicht vom Käufer extra bezahlt werden musste.

Selbst wenn ich jetzt 10 oder 20 Neuerungen aufzählen würde, würdest du sie alle aufgrund deiner Einschränkungen ablehnen, du bist da mit im Aldaric87-AMD-Fan-Team.
Wie gesagt ich kann so eine engstirnige Diskussionsweise absolut nicht nachvollziehen.
Da kann ich auch behaupten AMD bringe nie Neuerungen, genauso absurd und grundfalsch.
 
  • Gefällt mir
Reaktionen: SIR_Thomas_TMC und kisser
Warte Intel bringt nix neues ausser 14nm++++++++++++++++++++++++++++++++++++++++++ lol der musste sein.
 
  • Gefällt mir
Reaktionen: Unnu
KlaraElfer schrieb:
Selbst wenn ich jetzt 10 oder 20 Neuerungen aufzählen würde, würdest du sie alle aufgrund deiner Einschränkungen ablehnen, du bist da mit im Aldaric87-AMD-Fan-Team.

Ich würde an deiner Stelle mit dem Wort "Einschränkungen" vorsichtig umgehen, denn bisher hast du nirgends hier auch nur eine annähernd deine Behauptungen belegt.

Und ich hab jetzt schon ein eigenes Fan Team? Huii :)

Wusstest du das ich eine Intel-CPU (4790k) und eine GTX 1070 von EVGA im System habe ? Lass dir doch lieber mal was neues einfallen, als die Fanboy-Keule zu schwingen. :lol:
 
  • Gefällt mir
Reaktionen: Mcr-King
Naja wird halt selber einer sein lol.

Trotzdem lustig ist keiner der NV Fans Kauft eine Switch nee die ist doch mit AMD weil die so langsam ist musste ich letztens hören. ;)
 
@KlaraElfer
Was haben Neuerungen mit Innovationen zu tuen?
Als Neuerung kann ein Chip im Refresh höher getaktet sein, eine Innovation ist des deshalb noch lange nicht.
 
TheUngrateful schrieb:
@kisser
Zum Beispiel den Mut zu kleineren und neueren Fertigungen, aktuell 7nm,

Gezwungenermaßen, weil man mit 12nm den Anschluss völlig verloren hätte, das Ergebnis sieht man ja.

TheUngrateful schrieb:

Gezwungenermaßen, weil man mit herkömmlichem RAM am Ende was (512Bit Breite) und keine bandbreitensparenden Maßnahmen (das ist innovativ!) implementiert hat, wie die Konkurrenz.

TheUngrateful schrieb:

Nur ein technisches Detail der API. Kann übrigens mit allen Nvidia-Karten ab Fermi (das ist innovativ!) genutzt werden.

TheUngrateful schrieb:
unterstützen der neusten APIs, Mantle, Multi Core,

Welche APIs unterstützt die Konkurrenz denn nicht? Und ist CUDA nicht innovativ?

TheUngrateful schrieb:
integrierter Memory Controller... usw.

Den man jetzt wieder einstampfen muss beim "Chiplet"-Design. Back to the roots.
Das Chiplet-Design ist nicht anderes als man vor 20 Jahren auf Motherboards schon hatte in Form von mehreren Sockeln + Northbridge mit RAM-Controller. Nur eben jetzt in einem Package, das man in einen Sockel steckt.

TheUngrateful schrieb:
Ich will nicht sagen das AMD damit besser ist/war oder das andere keine Innovationen bringen, aber AMD bringt häufiger was neues, mehr nicht. Fehlende Innovationen kann man AMD nicht vorwerfen.

Ich sehe da keinen Unterschied zu anderen Firmen.
Und falls es nicht bekannt sein sollte: Die aktuellen Schnittstellen (Ausnahme: Firewire) im PC, interne wie externe, wurden von Intel geschafffen. USB, PCI, PCIe (früher AGP), ATA

Ist das nicht innovativ?
 
kisser schrieb:
Welche APIs unterstützt die Konkurrenz denn nicht? Und ist CUDA nicht innovativ?

NVIDIA unterstützt offene APIs und Schnittstellen imho allgemein nur dann, wenn sie sich dazu gezwungen sehen. Und CUDA ist nicht innovativ, sondern auch nur der Versuch proprietäre Technik durchzusetzen. Damit lässt sich halt besser Geld abschröpfen :)
Wie jemand ernsthaft NVIDIA Fan sein kann, verstehe ich garnicht. Imho ist das eine der wiederlichsten Kackfirmen die es gibt. Und ich habe eine 1070 im PC, falls hier Fanvorwürfe kommen :)
 
  • Gefällt mir
Reaktionen: Mcr-King, eXe777 und aldaric
@kisser
Zum einen gab es bislang keine 12nm Neuauflage der Vega Modelle und zum anderen sehe ich nicht wo das Problem mit dem 512 Bit Speicher Interface des Hawaii Chips gewesen sein soll. Die 290x wurde mit einem 2500er Speichertakt betrieben und nvidia nutzte bei diversen Geforce 900 Modelle gar einen 3506er Speichertakt für den GDDR5 Speicher. Damit fallen deine Punkte der angeblichen Notwendigkeit schonmal flach denn spätere Geforce Modelle wie die Titan Xp kamen mit einem 384 Bit Speicherinterface und höher taktenden Speicher auf eine vergleichbare Speicherbandbreite wie die Fiji Chips und die erste Vega Generation.

Ist für die Karte der zweiten Vega Generation die 7nm Fertigung wegen der hohen Taktraten erforderlich gewesen? Mit Sicherheit aber wo wäre nochmal das Problem gewesen den Chip sonst geringer takten zu lassen? Dass die 4 HBM2 Stacks mit einem deutlich größeren Chip nicht unmöglich gewesen wären zeigt ja nvidias GV100 "Volta" Familie die sich aber preislich im 4 bis 5 stelligen Bereich bewegt und gegen die die Radeon VII Modelle das reinste Schäppchen sind.

Zum Thema Async compute....ab welcher Generation war nochmal die Nutzung von async compute bei nvidia nicht mehr mit Leistungseinbußen verbunden? Ja schon verdammt innovativ Leistung mit einem Feature zu verlieren wo die Konkurrenz Leistung gewinnt. Wäre dafür für den Fermi nicht ein entsprechender Treiber erforderlich gewesen der zwar vollmundig angekündigt wurde aber nie erschien?
So nebenbei, wenn ich mich recht erinnere beherrschten das bereits die erste oder zweite GCN Generation in Hardware und zog auch einen entsprechenden Nutzen daraus, was angesichts der damit zusammen hängenden Mantle Initiative auch kein Wunder ist.

Zum Thema CUDA, was ist an einer hersteller spezifischen GPGPU API so wahnsinnig innovativ? Das damit keine direkten Vergleiche zwischen Herstellern möglich sind?
Sowas gab es früher auch von AMD/ATI, wurde aber für allgemein nutzbare APIs und wegen der geringen akzeptanz fallen gelassen.

Und weil ich weiss das du sofort mit Mantle antraben wirst, das sollte nach der Beta Phase für alle nutzbar sein, wogegen sich nvidia aber verweigerte und es ging am Ende in Vulcan auf.
Warum es dennoch eine Innovation war?
Weil offenbar kein anderer Hersteller eine Notwendigkeit dafür sah die Hardware im PC Segment effektiv zu nutzen und auch ohne Bastellösungen abseits von Standards entsprechend auslasten gut zu können.
 
  • Gefällt mir
Reaktionen: Mcr-King und eXe777
Nessix schrieb:
NVIDIA unterstützt offene APIs und Schnittstellen imho allgemein nur dann, wenn sie sich dazu gezwungen sehen. Und CUDA ist nicht innovativ, sondern auch nur der Versuch proprietäre Technik durchzusetzen. Damit lässt sich halt besser Geld abschröpfen :)

Wird hier Innovation mit "kostenlos für alle verfügbar" verwechselt? Ich lach mich tot.
Was glaubst du denn, warum es so etwas wie Patente gibt?
 
@kisser
Eine Innovation ist für mich vor allem etwas was einem möglichst großen Anteil der Nutzer einen echten Vorteil bietet.
Das schließt den ganzen proprietäre Kram in meinen Augen schon von Anfang an aus.
 
  • Gefällt mir
Reaktionen: Mcr-King und eXe777
kisser schrieb:
Beispiele?
Ergänzung ()



Ich wüsst jetzt nicht wo.
Ergänzung ()



Welche denn?
Das Moduldesign war eine Neuerungen, aber eben keine Gute.
 
  • Gefällt mir
Reaktionen: Mcr-King
Nessix schrieb:
NVIDIA unterstützt offene APIs und Schnittstellen imho allgemein nur dann, wenn sie sich dazu gezwungen sehen

Ach und AMD versucht das Gegenteil weil die so eine nette Firma sind und nur unser bestes wollen. Ach komm verschone mich und hört endlich mal auf AMD als gute Firme und Nvidia als böse Firma dazustellen.
Beide wollen Geldverdienen und versuchen mit jeden neuen Produkt dir, mir, uns das Geld aus der Tasche zu ziehen.


Nessix schrieb:
Und CUDA ist nicht innovativ, sondern auch nur der Versuch proprietäre Technik durchzusetzen. Damit lässt sich halt besser Geld abschröpfen :)

Und AMD versucht halt mit offenen Standards Kunden zu binden und Geld zu machen, weil deren Marktanteil so gering ist da eigene Standards keinen Sinn machen. Wäre AMD da wo Nvidia ist, würden die es nicht anders machen.


Nessix schrieb:
Wie jemand ernsthaft NVIDIA Fan sein kann, verstehe ich garnicht. Imho ist das eine der wiederlichsten Kackfirmen die es gibt. Und ich habe eine 1070 im PC, falls hier Fanvorwürfe kommen :)

Wie man überhaupt von einem Hersteller Fan sein kann ist mir ein Rätsel!
Und wenn du Nvidia widerlich findest und das wirklich durchziehen würdest, würdest du verhunger und nach paar Wochen sterben. Mach dich mal schlau was die Lebensmittelindustrie so treibt, bei Hardware geht es um Luxusgüter, bei Lebensmittel um unser Leben / Überleben.
 
I:r:O:n:I:C schrieb:
aber man ja kann ja bei den Vega Karten gut undervolten
Ich persönlich mache weder under noch über noch sonst ein Tuning oder modding. Ich steck die Karte so wie sie ist in den Rechner, bügel die Standardtreiber drauf. Und lege dann los. Ich kann mir vorstellen, dass ich hier m Forum damit die Ausnahme bin, aber als Käufer eher die Regel. Somit sollten die Karten für den Normalnutzer optimiert sein (und nicht erst feintuning benötigen). Oder man hat halt - eventuell - ein schlechtes Käuferfeedback.
 
rico007 schrieb:
Wäre AMD da wo Nvidia ist, würden die es nicht anders machen.

Das Argument wird so oft angeführt, dabei ist es alles andere als sicher und erst recht nicht nachweisbar. Hätte, könnte, sollte...

rico007 schrieb:
hört endlich mal auf AMD als gute Firme und Nvidia als böse Firma dazustellen.
Beide wollen Geldverdienen und versuchen mit jeden neuen Produkt dir, mir, uns das Geld aus der Tasche zu ziehen.

Das Geldverdienen ist ja der sinn einer Firma, genauso wie du selbst bestimmt auch nicht einfach nur aus Nächstenliebe arbeiten gehst. Schwarz/Weiß brauch man nicht anführen, sondern verschiedene Graustufen und gerade da hat AMD nun mal das hellere Grau. Es ist auch egal, warum sie das hellere Grau haben, ob Bewusst oder gezwungener Maßen, Hellgrau bleibt Hellgrau.

Aus dieser Situation heraus kann man eben eines mit Sicherheit sagen, ein Monopol oder zumindest eine überstarke Marktmacht eines Unternehmens ist schlecht für uns. Und das beweist uns Nvidia mit ihren proprietären Maßnahmen immer wieder auf´s Neueste. Es wird deutlicher, wenn tatsächlich Intel als dritter Spiele in den Grafikkarten-Markt aufkreuzen sollte.
 
Zurück
Oben