News AMD schlägt Nvidia im Markt für diskrete Grafik

Und ich dachte immer Firmenzahlen wären nur was für Mitarbeiter und Aktionäre. Dieses Markenbewusstsein hat schon was komisches, nur weil ich ein Gerät von denen besitze, geht mir noch keiner ab, wenn sich die Umsatzzahlen um 2% verschieben.

Was macht eigentlich Miele, mein Dampfbügeleisen von denen ist sooo heiß... :evillol:
 
Und? Das ist Marketing. Auch andere Firmen treten regelmäßig in Fettnäpfchen.
Die Vorstellung der Fermi - deshalb fühlst du dich verarscht? Mein Beileid...
 
Eigentlich ja: don't feed the troll, aber ja gut:

@sse3

Eyfinity: Wer das braucht oder nicht, entscheided immer noch der Anwender. In vielen Bereichen sind 3 oder mehr Monitore am Arbeitsplatz normal. Um 3 Monitore an eine NVidia Karte zu hängen benötigt man immerhin schon eine zweite Karte. Und 3D kann AMD seit dem Iz3D Treiber schon lange, hab ich Anfang des Jahres mal ausprobiert. Inzwischen geht das auch in Verbindung mit Eyfinity (= Vision3D)

PhysX: Ist kein neues Feature, sondern bereits einige Jahre alt. Dennoch wird es nur in wenigen Spielen verwendet. Spielehersteller setzen vermehrt auf kompatible Entwicklungen anstatt konkurierende Technologien zu verwenden. Das spart Geld und ist auch ein Garant dafür, dass sich OpenCL auf Dauer durchsetzten wird. Bei BadCompany z.B. gibt es Physik, aber ohne PhysX. Wenn es dir bei einem Spiel aber anstatt der Story aber nur darauf ankommt, wie gut man alles zerstören kann, ...

Tesselation: Spielehersteller werden sich am kleinsten gemeinsamen Nenner eher orientieren als an der besten Karte. Im Übrigen gibt es erst ein Spiel (Dirt2), dass Tesselation sinnvoll einsetzt ohne die Modelle aufzublähen. Dafür ist die Leistung einer ATI Karte jedoch mehr als ausreichend.

Leistung: Ich seh ausgehend von den Tests hier bei Computerbase keine Rechtfertigung für die erhöhte Leistungsaufnahme der GF100er Chips im Vergleich zur Mehrleistung zu einer ATI Grafikkarte. Ja, NVidia hat die schnellste Single-Grafikkarte momentan, ob die damit verbunden Nachteile damit unter den Tisch fallen, muss jeder selbst wissen.

Die GTX460 ist übrigens keine schlechte Mischung zw. Preis/Leistung/Verbrauch und die einzige Graka im Bereich 175-225 Euro die man empfehlen kann imho. Nur dass keine Missverständnisse entstehen, ich wäre einer dieser Fanbois.

Greetz,
GHad
 
Das Problem ist doch, dass die Anforderungen nicht klar waren. NVIDIA hat eine GK geschaffen, die eine brachiale Rechenleistung hat. Primär lag der Fokus auf GPU-Computing. Wieviele Spiele gab und gibt es denn bereits auf DX11 Basis, die wirklich Gebrauch von den Features machen!?

Wie können die eine zweiten Chip generieren der ~1Mrd. Transitoren weniger hat, aber bei der Performance kaum langsamer ist als der Erste, bei derselben Fertigung!? Indem man Einschnitte macht. Deswegen brechen die neuen Karten z.B. bei Metro weg.

Gerade im Zuge der Weiterentwicklung der Spiele, denke ich, dass der Unterschied zwischen den beiden GF100 und GF104 in Zukunft noch größer werden wird.

Aber für den aktuellen Bereich reicht es ja, um mit der abgespeckten Version dem Konkurrenten ordentlich Druck zu machen und auch um die Kritikpunkte ( die Leistungsaufnahme ) zu beackern.
 
@chris193

Nicht nur Fake Karten präsentiern, sondern auch die Umbenennungsaktionen, die ständigen Terminverschiebungen, dass Händler z.B. 20 GT220 Grafikkarten kaufen müssen, wenn sie eine GTX470 kaufen, Ausschluss von Partnern, weil die jetzt auch ATI verkaufen, usw.

Da gibts bei NVidia wirklch momentan keine Ende an Skandalen und Skandälchen. AMD/ATI hat auch keine weiße Weste, da sie ja auch Geld verdienen müssen, aber ich persönlich fühle mich durch NVidea um einiges mehr getäuscht als bei AMD/ATI.

Greetz,
GHad
 
@ GHad

Dazu kommen noch falsche TDP Werte um auf dem Papier innerhalb von Spezifikationen zu bleiben die im realen Betrieb gesprengt werden. Das mutwillige Bremsen von Evolution sowie das Verbieten, dass Partner technische Neuerungen einsetzen, weil man sie selbst als unwichtig erachtet (Assassins Creed und DX10.1). PhysX auf der CPU so langsam wie möglich laufen zu lassen (Softwareentwickler müssen sich für Spiele selbst die Multicore Unterstützung bauen und nicht mal SSE wird verwendet was seit mehr als 10 Jahren Standard ist). Produkte werden mit falschen Anzahlen an Shader Cores vorgestellt (Fermi) etc. etc
ATI/AMD hat bestimmt keine blitzsaubere Weste was das angeht. Aber im Vergleich sind sie Lämmchen.

chris193 schrieb:
@ Mika911: Das "Problem" ist, dass auf den Office-PCs (die den größten Marktanteil bilden) meist Intel CPUs sowie Chipsätze inkl. diskreter Grafiklösungen verbaut werden.

Chipsätze mit integrierten Grafiklösungen oder auch PCs ohne diskrete Grafiklösungen meinst du vermutlich. IGPs...
 
@DVP Danke, mir ist auf die Schnelle nicht alles eingefallen... Ist ja auch ne lange Liste... ;-)

Greetz,
GHad
 
Kein Problem ;-) Guckt euch das mal an bzgl. PhysX @ CPU: http://www.realworldtech.com/page.cfm?ArticleID=RWT070510142143

Eine Analyse von PhysX und warum es auf CPUs überhaupt nicht schnell laufen "will". CB wollte den Artikel wohl nicht posten, warum auch immer. Wäre schön wenn er sich dennoch verbreitet, damit NV vielleicht mal ein wenig Unmut zu spüren bekommt. Für Spieler könnte das nur von Vorteil sein.
 
Man erinnere nur mal an PowerPlay. Sämtliche 4870 User wurden von Treiber zu Treiber getröstet um endlich den Verbrauch zu drosseln.

Warum hat sich nix geändert? Weil es ein Hardwarefehler war und ist. 1GB GDDR5 Speicher im Takt zu drosseln hat 50W Ersparnis gebracht. Wenn es da nicht klingelt, dann weiß ich es auch nicht mehr. Aber so fair, diesen Fehler einzugestehen waren sie auch nicht. Bei der 58xx Serie scheint es ja nun zu klappen.

Weiteres Beispiel... Apple. Genau das Gleiche. Die Buden nehmen sich alle überhaupt nichts...
 
An den Zahlen wird sich für Nivida auch nichts mehr verbessern. Im Gegenteil, der Marktanteil wird weiter sinken. Kommendes Jahr holt sich AMD den Markt für alle Grakas bis HD5570 mit Fusion. Wieder ein Kuchen weniger für Nivdia. Keine Chipsätze mehr, keine Onboard GPUs mehr, bald keine Netbook und Notebook GPUs mehr, und dank der Entwicklungsumstellung auf AMD Level vor 3 Jahren wird AMD auch den Markt ab HD5670 weiterhin beherrschen mit der neuen 6000er Reihe. Nvidia kennt diese Arbeitsweise nicht und wird daher nicht mithalten können und wenn dann nur zu Kosten die es später nicht mehr rein bekommt weil der Kuchen immer kleiner wird. Wenn Nivdia sich nicht wirklich auf das konzentriert was eine Zukunft hat, Tegra, dann wird es bald ganz schnell nach unten gehen.
 
Meiner Meinung nach ist der Grund für die schlechte Geschäfte seitens Nvidia die bis vor wenigen Wochen quasi fehlende Produktpalette im Performance/Mainstream/Lowend-Bereich (Mainstream/Lowend immer noch fehlend). Der G100 als highend GPU hätte eh kaum zum Umsatz beigetragen, weil nur die "oberen 10000" sowas kaufen. Damit meine ich nicht unbedingt die Reichen, sondern eher die Technik-Freaks, die evtl. 1-2% des Gesamtmarkets ausmachen (s. auch Intels GMA-Marktanteil).
Für Nvidia wäre viel wichtiger, dass neben dem G104 auch die G106/108 gut gelingen, dann läuft´s auch wieder besser mit dem Geldmachen.
 
DvP schrieb:
Kein Problem ;-) Guckt euch das mal an bzgl. PhysX @ CPU: http://www.realworldtech.com/page.cfm?ArticleID=RWT070510142143

Eine Analyse von PhysX und warum es auf CPUs überhaupt nicht schnell laufen "will".

Weil nvidia es nicht will ;)
Die haben es ja immerhin für die Konsolen hinbekommen, dass es auf CPUs vernünftig läuft und die haben in der Regel weniger Leistung als die CPUs auf dem Desktop. Die wollen es einfach als "exklusives" Feature behalten. Außerdem gäbs noch weniger Argumente für CUDA.
 
Es gräbt sich niemand selbst das Wasser ab... NVIDIA will da keine große Energie reinstecken, damit die CPU's eine Alternative bei PhysX werden. Wer streicht denn gerne auf seiner Seite Features gegenüber dem Mitbewerber weg. Das wird erst anders wenn es Standards gibt. Und die Spieleentwickler auf diese bauen. Danach wird PhysX hinfällig.
 
Arhey schrieb:
Weil nvidia es nicht will ;)
Die haben es ja immerhin für die Konsolen hinbekommen, dass es auf CPUs vernünftig läuft und die haben in der Regel weniger Leistung als die CPUs auf dem Desktop. Die wollen es einfach als "exklusives" Feature behalten. Außerdem gäbs noch weniger Argumente für CUDA.


Hm, bei NVidia läuft Psysik X aber auf der GPU ab. Von daher wär das eher ein Nachteil für ATI,
da diese, aufgrund fehlender Lizenzen, nur die Möglichkeit haben, das auf der CPU ablaufen zu lassen.


Damit wär das Cuda - Argument auch hinfällg
 
Arhey schrieb:
Die wollen es einfach als "exklusives" Feature behalten.

Stimmt, auch wenn die GPUs eigentlich furchtbar schlecht für diese Berechnungen geeignet sind und die Spiele somit auch auf NV Karten viel langsamer laufen als sie könnten. Ist doch toll! Siehe Mafia 2 Anforderungen und Dark Void. Da geht die GTX 480 vollkommen ein weil sie PhysX mitberechnen muss und das auf der CPU viel besser laufen würde. Die meisten CPUs langweilen sich sowieso bzw. zumindest ein P(p)aar Kerne.

Vanilla2001 schrieb:
NVIDIA will da keine große Energie reinstecken, damit die CPU's eine Alternative bei PhysX werden.

Das ist schon klar. Darum haben ja auch schon Leute wie Charlie angeboten die PhysX API für CPUs und SSE unentgeltlich zu optimieren. Aber das wollen die Grünen irgendwie nicht ;)

@ Vanilla2001
Keiner hat gesagt, dass ATI/AMD in der Hinsicht tadellos ist, oder?
Ergänzung ()

Dario schrieb:
Hm, bei NVidia läuft Psysik X aber auf der GPU ab.

Lost_Byte schrieb:
@Dario: Bei Nvidia läuft PhysX auch meistens auf der CPU.

Wovon redet ihr eigentlich? Was soll der Satz heißen?
 
Lost_Byte schrieb:
@Dario: Bei Nvidia läuft PhysX auch meistens auf der CPU. Es gibt nur ne Hand voll Spiele, die PhysX auf GPU nutzen.

Dann bringt es denen doch keinen Vorteil gegenüber Ati, da das Softwarebasierte Physik X,
wo die CPU dann rechnet, doch von beiden genutzt werden kann. !?

@DvP: Durch die Übernahme von Havok damals, bekam NVidia die Möglichkeit hardwarebeschleunigt ( also per GPU ), Physik X Effekte berechnen zu lassen. Ati hat diese Funktionalität nicht, da keine Lizenzen dafür vorhanden sind.

Also muss das ganze dort Softwarebasiert über die CPU berechnet werden, was zu den angesprochenen Leistungseinbrüchen führt.
 
Zuletzt bearbeitet:
Dario schrieb:
Dann bringt es denen doch keinen Vorteil gegenüber Ati, da das Softwarebasierte Physik X,wo die CPU dann rechnet, doch von beiden genutzt werden kann. !?

Richtig, darum gibt es auch nicht viele Titel wo GPU PhysX verwendet wird und diese werden bestimmt alle subventioniert. Es gibt einfach zu viele Nachteile. PhysX macht die Graka extrem langsam und nur die NV besitzer profitieren von der optischen Qualität der Effekte. Von der Power einer GTX 480 bleibt aber dann auch nicht mehr viel übrig. Jene Spiele die GPU PhysX unterstützen, laufen komischerweise dann auch furchtbar schlecht auf den CPUs.

Dario schrieb:
@DvP: Durch die Übernahme von Havok damals, bekam NVidia die Möglichkeit hardwarebeschleunigt ( also per GPU ), Physik X Effekte berechnen zu lassen.


Edit:
Du schreibst nen ziemlichen Schmarrn! Havok wurde von Intel gekauft und nicht von NV. PhysX wurde von Ageia entwickelt, dann wurden die von NV geschluckt und die Physikengine läuft auch meistens in den CPUs. Wie gesagt, gibt es nur wenige Spiele und die meisten davon überfordern dafür die Graka, sodass man eine zweite braucht = ganz toll!
Havok FX lief auch auf den GPUs, daraus wurde aber nicht wirklich was und letztes Jahr hat ATI die Havok Engine auf der GPU laufend präsentiert. Ist nur die Frage ob das überhaupt nötig ist. Havok läuft super auf CPUs und die Grafikkarten werden auch anderweitig gefordert. Ist ja nicht ohne Grund die Komponente die meist bei Spielen den PC aufhält und dann packt man noch die Physik mit rein. Sehr klug!
 
Zuletzt bearbeitet:
Zurück
Oben