News Nvidia verkauft mehr Grafikkarten und wird verklagt

Richthofen schrieb:
Da wäre erstmal zu definieren was "selbe Leistung" heißt.

Bei einer Gaming Grafikkarte definiere ich natürlich die Framerate als Leistung. Natürlich sind auch andere Faktoren wie Stromverbrach, Lautstärke und Treiber wichtig. Aber das ist bei AMD doch nicht zwangsläufig schlechter... Ich zB stand 2012 vor der Entscheidung HD7870 oder GTX660, sie war damals noch fast so schnell wie die Radeon. Vor jedem Grafikkartenkauf gucke ich mir an, was es für mein Budget, meist gut 200€, auf dem Markt so gibt. Und da war die HD7870 einfach das bessere Angebot, mindestens genauso effizient, sehr leise und FC3 gabs kostenlos auch noch dazu.
Ein Bekannter hatte sich für eine GTX660 Ti entschieden, obwohl eine 7950 schneller ist und 3 kostenlose Spiele beinhaltet... Er hat die Nvidia Karte genommen, weil sich die meisten für eine Nvidia entscheiden. So plump war sein Kaufgrund.

Es wird ja immer so getan, als ob es bei AMD keine leisen, kühlen, effizienten oder kurzen Karten gäbe. Da sehen sich die Noobs einen Test der HD7970 GHz Edt im Ref Design an und schließen daraus, dass das halt eben AMD ist.

AMD's größtes Problem ist das schlechte Image. Sie müssten mal ein exzellentes Produkt veröffentlichen und dieses gut vermarkten. So ein Desaster wie bei der R9 290X darf nicht noch einmal passieren. Keine Ahnung wer da enschieden hat, einen so guten Chip mit einem so schlechten Kühler auszustatten. Furchtbar laut, 95°C und hohe Leistungsaufnahme. Als ob man das schlechte Abschneiden der 7970 GHz Edt im Ref toppen wollte.

Hätte man einen guten DHE Kühler drauf geschnallt oder gleich Sapphire damit beauftragt, wäre die Karte ein großer Erfolg geworden. So schnell wie die absurd überteuerte GTX Titan, unter 80°C bei ca. 250W.
 
SimsP schrieb:
Und was kam von AMD in den letzten Jahren im Grafik-Lager? Nicht viel mehr als heiße Luft. Die letzte gute Architektur war Tahiti und das liegt mittlerweile auch wieder 3 Jahre zurück. Die Zwischenzeit zur nächsten Architektur versucht man mit Witzen über die Konkurrenz oder angeblich irgendwann mal offenen Pseudo-Standards wie Mantle zu überbrücken.

Lebst du auf dem Mond oder wie hast du das mit dem Hawaii Chip nicht mitbekommen? Der ist nämlich besser als Tahiti und liegt fast 1,5 Jahre zurück. Demnähst kommt der nächste dicke High End Chip. Ich finde von einem finanziell so anschlagenen Unternehmen, das parallel auch noch eine neue High Performance CPU, einen eigenen ARM Chip entwickelt und noch einige andere Baustellen (Sky Bridge, LP Kerne, HSA, Mantle) hat, kann man nicht erwarten, dass man jedes Jahr ein paar neue GPU's auf den Markt wirft...

Da du offenbar auf dem Mond lebst, sollte ich wohl erwähnen, dass mit dem "Pseudo-Standard Mantle" viel in Bewegung gebracht wurde. So zum Beispiel hat Microsoft plötzlich DX12 angekündigt, was angeblich auf Mantle basiert, und Nvidia brachte einen "Wundertreiber", der den CPU Overhead reduzierte.

In der Zwischenzeit hat man mit Hynix an der GDDR5 Ablösung gearbeitet und wird demnächst die erste Grafikkarte mit HBM vorstellen.
Wenn man bedenkt, wie klein AMD ist und mit welchen Finanzen man arbeiten muss, dann weiß man deren Bedeutung für die Computer Industrie noch mehr zu schätzen.

Und btw, die angeblich stressfreie Nvidia Lösung kostet ganz sicher keine 5€ mehr ;)
 
Zuletzt bearbeitet:
Du zitierst dich selber, nachdem ich ein Zitat möchte auf welchen Text du dich beziehst in Beitrag 151?
Textverständnis= Null
 
In Beitrag/Post#151 findest Du das entsprechende Zitat & man muss bzw. sollte nur zurückblättern.
Ich werde dein Zitat hier jetzt nicht posten, da ja bereits mein letzter Beitrag im Aqua versenkt wurde. Falls Du Post#151 nicht finden solltest, dann schick mir bitte eine PN ...^^
 
Daedal schrieb:
Da regst du dich über die eine Kack Programmierung auf um dann die nächste Schwachsinnige Software-Bremse zu nennen. Bei Cinebench ist es ebenso ein Unterschied der verwendeten Renderpfade, die einfach nicht identisch sind bei Intel und AMD CPUs/APUs.

Ich finde es schon erstaunlich das ich erstaunlich, das ich eigentlich AMD GPUs oder vorallem Grafikkarten in schutz nehmen will und daher den Vergleich zu den CPUs negiere und hier mehrfach von irgendwelchen AMD CPU Fans angesprochen werde.

Selbst wenn pro Euro die CPU Leistung vielleicht auch bei AMD in Ordnung ist, so ist der Stromverbrauch gerade der richtig schnellen CPUs also z.B. FX8xxx cpus gigantisch hoeher ist wie bei Intel, wenn man sich dann noch ein 1000Watt Netzteil dazu kaufen muss wirds spaetestens Preislich nimmer interessant, von den STromkosten ganz los geloest, und das muss auch so sein, waere komisch wenn AMD deutlich hinten im Produktionsprozess waere und trotzdem noch mit halten koennte.

Wobei die richtigen CPUs ja quasi eh schon aufgegeben worden sind, AM3 ist doch tot, stattdessen hat man die cpu leistung gerade wegen des Stromverbrauchs noch weiter beschraenkt, auf reine 4core versionen nicht mal 6core versionen gibts fuer die aktuellen chips mehr. ein Core i7 kostet 250 Euro vielleicht mitlerweile 200 ne weile her das ich geschaut habe, zeig mir doch mal die amd cpu die da mit halten kann? ja vielleicht kommt man irgendwie mit biegen und brechen und mindestens doppeltem stromverbrauch und irgendwas uebertaktetem da ran.

Aber es ist mir eigentlich zu bloed drueber weiter zu diskutieren, AMD aktie ging nicht auf 1 Euro oder so runter weil die cpus so toll waren die letzten jahre. Ich bin echt amd positiv gesonnen, hab nen fx6300 (wegen vorhandenem board und weil mir der speed reicht) und nen zacate als htpc, aber im Highendsektor kann doch niemand ernsthaft AMD verteidigen, vielleicht sind dir Stromkosten egal weil vielleicht deine Eltern diese zahlen?

Zumal auch die letzte CPU generation von Intel dazu genutzt wurde strom zu sparen ausschliesslich, 0% speed zu wachs, naja vielelicht 1-2% so genau weiss ichs auch nicht, viel wars auf jeden fall nicht. Und man hatte davor schon mehr speed pro Watt.

AMD ist vileleicht fuer Leute nett die zufaellig grad die gpu der apu benutzen wollen, aber nicht im high-end bereich. Fuer echte gamer ist die gpu schon fast ein nachteil, man zahlt sie mit, ohne sie zu nutzen.

Kannst mir aber gerne mal tolle benchmarks zeigen wo amd nen core i7 irgendwie ab zieht. inkl. stromverbrauch, dann nehm ich alles zurueck und amd wird sicherlich bald dann ihren aktienkurz ver10fachen.

Zumal selbst dann eben cpus bei Notebooks viel wichtiger sind und man diese dort nicht wechseln kann daher bringts schlicht nix, selbst wenn amd besser waere, intel ist schweieteuer das ist das einzige was amd noch eine niesche gibt, wuerden die ihre riesen gewinnmargen auf fast 0 senken, waere amd im milliardenbereich in den miesen pro jahr.
 
Zuletzt bearbeitet:
Es geht doch nicht um AMD positiv gesonnen oder jemand anderem. Das Problem sind die völlig sinnlosen Benchmarks die etwas aussagen sollen, was sie nicht tun. Das zeigt sich jetzt für CPU-Benchmarks mit Spielen auf DX11 Basis. Darin stimmen wir ja überein. Nur dass Cinebench nun der Anhaltspunkt sein soll ersatzweise, klingt für mich wie Hohn, da diese Software ebenso ungeeignet ist wie Spiele mit niedriger Auflösung um CPUs zu benchen.
 
...da diese Software ebenso ungeeignet ist wie Spiele mit niedriger Auflösung um CPUs zu benchen.
Dann hast Du immer noch nicht den Sinn eines CPU-Test, speziell im Bereich Gaming, verstanden. Niedrige Auflösungen & Settings sind dafür elementar wichtig um überhaupt das vorhandene Potenzial zu ermitteln. Erst wenn ein GPU-Limit ausgeschlossen werden kann, wird die wahre Power sichtbar ... ;-)
Was nützt mir die dickste High-End GPU oder SLI/CF-Gespann, wenn es einfach an CPU-Power lahmt & ich mit solch einer Kombination nicht genügend Frames erzeugen kann?
 
Daedal schrieb:
Das einzige Problem bei der Sache ist, dass ich den Preis den AMD aufruft angemessen finde, während ich Intels Preise für überteuert halte. Das sehe ich daran wie viel Mrd. an Markt-Subventionen zur Verfügung stehen und wie hoch die Gewinnmarge ist bei Intel. Das bezahlt alles der Kunde. Das tolle Marketing von dem du sprichst sorgt dafür, dass CPUs überteuert sind. Wie kann man als Kunde hier argumentieren AMD sei schlecht weil zu billig?

Es ist auch Ausdruck des gelungenen Marketing, wenn Kunden in Foren die Argumentation des Unternehmens übernehmen und hohe Gewinne als tolle Bestätigung für den eigenen Kauf angesehen werden - finde die Logiklücke selber ;)

AMD schreibt ordentlich rote Zahlen und die Marge auf die Produkte liegt derzeit nicht hoch genug um die Gesamtkosten aufzufangen. Es ist also mitnichten so, dass die Preise bei AMD angemessen sind. Sie sind zu niedrig.
 
Welches Potential hat man denn damit ermittelt für DX12 Games? Das einzige was man testet ist die Programmierung der Software.
Das Potential einer zuvor getesteten APU verdoppelt sich schlagartig mit der neuen API. Du siehst einen Sinn wo keiner ist. Nur weil kein GPU-Limit besteht, bedeutet das nicht, dass die CPU ausgelastet wird - deutlich zu sehen beim Wechsel von DX11 auf DX12 oder Mantle.
Ergänzung ()

Richthofen schrieb:
AMD schreibt ordentlich rote Zahlen und die Marge auf die Produkte liegt derzeit nicht hoch genug um die Gesamtkosten aufzufangen. Es ist also mitnichten so, dass die Preise bei AMD angemessen sind. Sie sind zu niedrig.
Für wen zu niedrig? Intel schreibt satte Gewinne und verpulvert Milliarden im OEM-Channel damit man die Produkte noch immer deutlich zu teuer anbieten kann. Jeder Desktop-Käufer muss die Atom und Ultrabook Quersubventionierung mit bezahlen. Ebenso die Mrd-Strfen an Kartellwächter wegen unsauberem Marktverhalten. Warum sollte ich dafür einen Aufpreis zahlen wollen?
 
Zuletzt bearbeitet:
Welches Potential hat man denn damit ermittelt für DX12 Games?
Welche DX-Games? Wir leben im Hier & Jetzt u. was DX12 in Games dann an Performance ermöglichen wird, wird sich zeigen. Das nützt mir halt nur nix bei aktueller/heutiger Soft & das ist doch jetzt mal entscheidend.
Ich sag doch, da wird permanent vorbei gegackert & Prognosen erstellt, dabei sprechen die nackten Zahlen eine deutliche Sprache. Man muß sich nur mal die Marktverteilung näher betrachten. Mittlerweile bei dGPU ~75 zu 25% ...

Warum sollte ich dafür einen Aufpreis zahlen wollen?
Weil sich die Preisspanne(n) von FirmaA auch immer an die Konkurrenz richtet. Ist diese äußerst schwach in ihrem Handlungsspielraum oder deckt nur vorwiegend das niedrige Preissegment ab, dann hat man doch einen seehr großen Spielraum ...besonders im Bereich Preisplatzierungen für das obere Segment/Sortiment.
 
SuddenDeathStgt schrieb:
Welche DX-Games? Wir leben im Hier & Jetzt u. was DX12 in Games dann an Performance ermöglichen wird, wird sich zeigen.
Du drehst dich im Kreis. Wenn wir im hier und jetzt leben, dann braucht man auch keine Benchmarks die irgendein nebeliges Potential aufzeigen sollen (Und dann auch noch falsch). Dann testet man das was 90% der Leser nutzen: FullHD oder höher.
Ergänzung ()

SuddenDeathStgt schrieb:
Weil sich die Preisspanne(n) von FirmaA auch immer an die Konkurrenz richtet. Ist diese äußerst schwach in ihrem Handlungsspielraum oder deckt nur vorwiegend das niedrige Preissegment ab, dann hat man doch einen seehr großen Spielraum ...besonders im Bereich Preisplatzierungen für das obere Segment/Sortiment.

Ich habe das wirklich lange nicht mehr benutzt. Doch nach mehrmaligem lesen dieses Abschnitts: ROFL
DAS soll der Grund sein warum ich als Kunde den Aufpreis bezahlen soll?
 
Zuletzt bearbeitet:
pipip schrieb:
Tolle Einstellung zur Menscheit, immer davon ausgehen beschissen zu werden.

Ist doch nur meschlich. Jeder sucht seinen eigenen Vorteil.
Warum gibt es sonst z.B. Preissuchmaschinen? Jeder der diese nutzt hat doch im Prinzip davor Angst beschissen zu werden. Und zwar in der Form dass er mehr Geld für einen Artikel bezahlt den es woanders auch billiger gibt.

Es war zwar ein Fehler von nVidia die Einschränkungen beim Speicher nicht so zu kommunizieren wie sie waren, aber im Grunde sind diese ja trotzdem nötig um leistungsmäßig auf die Preisdifferenz von 200 Euro zur 980 zu kommen. Von daher ist die Fehlinformation zwar ärgerlich, aber "beschissen" muss man sich IMHO nicht zwangsläufig fühlen.

zeedy schrieb:
Ist es denn vernünftig, mehr Geld für die selbe Leistung zu bezahlen? Ich finde nicht

Ich finde schon, denn jeder definiert Leistung anders. Daraus folgt die Tatsache dass viele AMD-Fans nicht verstehen können warum man nVidia kauft und warum viele nVidia-Fans nicht verstehen können warum man AMD kauft.

zeedy schrieb:
Klar, man kann sich einreden, dass man mit Intel/Nvidia die "bessere" Gaming Combo hätte, dass AMD's Treiber schlecht seien, dass AMD Karten generell furchtbar ineffizient und laut seien

Genauso kann man sich einreden dass es diese Gründe nicht gibt, weil man sie persönlich nicht nachvollziehen kann. Auch hier spielt die eigene Erwartungshaltung eine große Rolle.

zeedy schrieb:
Aber wenn AMD's Grafikkartengeschäft so weiter geht wie gerade, dann wird sich AMD noch weiter gesund schrumpfen und den teuren High End Gaming Markt verlassen.

Das wär zwar schade, aber es ist auch kein Grund jetzt AMD-Hardware zu kaufen die einem eigentlich nicht gefällt. Es würde einfach nicht helfen, denn es würde ein falsches Signal aussenden.

zeedy schrieb:
Bei einer Gaming Grafikkarte definiere ich natürlich die Framerate als Leistung

Ok, FPS bei welcher Auflösung, mit welchen Grafikeffekten, mit welcher verbauten CPU, mit wie viel RAM im System, mit welchem Treiber, etc. etc. ? Es gibt doch überhaupt keine allgemeingültige Basis um "Framerate als Leistung" absolut zu definieren.
 
Zuletzt bearbeitet:
Smockil schrieb:
Er hatte eine Grafikarte für (S)VGA Ausgabe aber nicht zur 3D Berechnung (GPU)

GPU = graphics processing unit = sprich Grafikkarte...

Von daher war Abaddon4tk Anmerkung völlig korrekt. Auch mein 386er hatte eine GPU/Grafikkarte...

Das eine GPU/Grafikkarte heute deutlich mehr macht als damals steht außer Frage, aber deine "Andeutung", dass es erst dann eine GPU ist, wenn sie auch 3D Berechnung macht (warum sonst schreibst du es nur hinter 3D Berechnung) ist falsch.
 
@Daedel, geh auf seine Beiträge besser nicht ein. Denn wenn man das tut und ihn auf der Argumentationsebene herausfordert, liest man nur noch solchen Quatsch. Er scheint nämlich mehr auf den äußeren "Stil" als auf den Inhalt zu achten.

@blackiwid "Selbst wenn pro Euro die CPU Leistung vielleicht auch bei AMD in Ordnung ist, so ist der Stromverbrauch gerade der richtig schnellen CPUs also z.B. FX8xxx cpus gigantisch hoeher ist wie bei Intel, wenn man sich dann noch ein 1000Watt Netzteil dazu kaufen muss wirds spaetestens Preislich nimmer interessant, von den STromkosten ganz los geloest, ... "

"gigantisch höher", ja ich bitte dich...muss man denn so übertreiben? Die Leistungsaufnahme liegt bei AMD generell unter der angegebenen TDP. Sogar bei 4,5 GHz zieht so ein Vishera keine 125W aus der Dose
42-4.5-GHz-Power-Consumption.png
http://www.tomshardware.de/amd-fx-8370e-cpu-prozessor-review,testberichte-241631-4.html
Das mit dem 1000W Netzteil soll ja wohl ein Witz sein...
In Spielen ist eine AMD CPU generell deutlich langsamer als ein Intel, aber man soll die Kirche mal im Dorf lassen, sonst denkt ja jeder Noob der hier mitliest, man bräuchte ein kleines Atomkraftwerk im Keller um eine AMD CPU zu betreiben :rolleyes:

@DocWindows wow, schon unfassbar wie man so etwas so verharmlosen kann. Das ist dreister Beschiss und nichts anderes, davon hat man gewaltig profitiert, wie man in dem Artikel lesen kann, und man hat es bei Nvidia nicht einmal als nötig empfunden, sich zum Thema offiziell zu äußern oder gar zu entschuldigen, wenn es denn wirklich ein "Fehler in der Kommunikation zw. der Entwicklung- und Marketing-Ateilung" war.
Die "Fehlinformation ist zwar ärgerlich, aber kein Beschiss" :lol:
 
So viele Feindseligkeiten ...

And i'm just sitting here, streaming Stranded Deep mit meiner 290X @2k @60fps ...
Empfehle ich euch allen mal. Schaltet mal ab.

mfg,
Max
 
@zeedy: Ich schrieb "Es war zwar ein Fehler von nVidia die Einschränkungen beim Speicher nicht so zu kommunizieren wie sie waren, aber im Grunde sind diese ja trotzdem nötig um leistungsmäßig auf die Preisdifferenz von 200 Euro zur 980 zu kommen. Von daher ist die Fehlinformation zwar ärgerlich, aber "beschissen" muss man sich IMHO nicht zwangsläufig fühlen".

Bitte nichts aus dem Zusammenhang reißen und nichts umdichten was ich so nicht gesagt habe.
 
Hendrik2 schrieb:
User die 4k Tv-Geräte besitzen sind auf Nvidia angewiesen. AMD unterstützt nämlich noch kein HDMI 2.0. Wahrscheinlich ein weiterer Grund Nvidia zu kaufen.

1. DisplayPort
2. Kann HDMI 1.4 4k.
 
DocWindows schrieb:
Bitte nichts aus dem Zusammenhang reißen und nichts umdichten was ich so nicht gesagt habe.

...Ich finde ich habe deinen Satz
"Von daher ist die Fehlinformation zwar ärgerlich, aber "beschissen" muss man sich IMHO nicht zwangsläufig fühlen."

mit diesem Satz
"Die Fehlinformation ist zwar ärgerlich, aber kein Beschiss"
im Grunde nur zusammengefasst. Wenn man also meint, es war ein Fehler und ärgerlich aber kein Beschiss, dann ist das eine krasse Verharmlosung. Von daher ist deine Bitte völlig fehl am Platz.
 
Zuletzt bearbeitet:
Zurück
Oben