News Nvidia gewinnt Marktanteile bei diskreten Grafikkarten

bensen schrieb:
Wenn es dir noch nicht aufgefallen sein sollte, gibts es jedes Quartal eine News über die Marktanteile. Warum soll man jetzt keine bringen?

Wo schreib ich denn, das eine News zu den Marktanteilen nicht gebracht werden soll?
Also lern lesen und hoer mit deinem daemlichen rumgetrolle auf.

Die Zahlen sagen nun mal eindeutig was anderes als CB hier mit der Ueberschrift suggerieren will.
 
Das alle immer gleich ausfallend werden müssen...

@GreatEvil: Im vergleich zum letzten Quartal hat nVidia wieder Marktanteile zurückgewonnen. Was gibts an der News auszusetzen? Ist sachlich 100% korrekt.
Denkst du CB betreibt Propaganda gegen AMD, oder warum schreibst du das?
 
W4yl4nder schrieb:
@GreatEvil: Im vergleich zum letzten Quartal hat nVidia wieder Marktanteile zurückgewonnen. Was gibts an der News auszusetzen? Ist sachlich 100% korrekt.
Und wo ist die Quellen-Angabe oder ist Überprüfbarkeit oder gar Korrekte Infos völlig unwichtig?

Denkst du CB betreibt Propaganda gegen AMD, oder warum schreibst du das?
Natürlich, sie zeigen es mit Subjektiven Ausschmückungen in Texten und Überschriften oft genug.

AMD hatte 2Q 2010 mit 50,5% die meisten Markanteile.
Und 2Quartale später sollen sie 10% verlieren, und das obwohl die kleinste DX11-Die fast 100% größer ist als die von AMD und dazu AMD im 4Q 2010 einen Rekord-Gewinn in GPU ever machte.
Wobei auf den 3Q der Einbruch bei 13% liegen sollen.

Das wäre so ein Einbrauch wie zu R600-Zeiten oder schlimmer und absolut unlogisch.

Wenn man das alles nicht weiß und sonst üblichen 0815-Sprüchen glaubt, dann klingt das alles schon normal.

PS: Auch wenn ein Aufholen von Nvidia sein sollte, AFAIK Geschäftsbericht AMD sinkende stücke und Nvidia Steigende Stücke, ist eben so ein Einbruch unlogisch, außer AMD hat im 4Q weniger 40nm-Wafer erhalten als im Quartal davor.
 
Zuletzt bearbeitet:
DarthFilewalker schrieb:
@ Haudrauff

Diskrete Grafikkarten = Normale Grafikkarten
Integrierte Grafikkarten = Onboard-Grafikkarten

Dedizierte Grafikkarten kenne ich. Das dískrete muss mal ein versehen gewesen sein das sich weiter fortgesetzt hat. Was soll eine diskrete Karte sein, eine die man nicht hört oder sieht weil sie sich diskret im Hintergrund hält?
 
@ bensen

An der News an sich habe ich auch nix auszusetzen. Ich habe sie mit Interesse gelesen und erst dann den Post erstellt. Mir geht es im Grunde genommen nur um die Art und Weise, wie mit solchen Informationen umgegangen wird - statt sachlich zu bleiben stoßen hier wieder die beiden Lager von AMD und NVidia (wie sonst auch immer) aufeinander.

@ Hovac

Der Begriff "diskret" muss in diesem Fall mit "eigenständig" oder "separat" übersetzt werden, wie es schon Hancoque sehr schön beschrieben hat. Aus diesem Grund handelt es sich bei den diskreten Grafikkarten um die normalen Grafikkarten, wie wir sie alle kennen - groß, lang, schwer und meistens noch laut. Im Gegensatz dazu handelt es sich bei den integrierten Grafikkarten um Onboard-Grafikkarten.

Zu den Begriffen dediziert oder dezidiert (vielleicht meintest du auch das) habe ich folgendes gefunden:

http://de.wiktionary.org/wiki/dediziert

http://de.wiktionary.org/wiki/dezidiert

Meiner Meinung nach passt keine der beiden Begriffe wirklich zu der oben genannten Beschreibung.
 
Zuletzt bearbeitet:
Mich wunderts nicht.

Was Grafikkarten angeht ist Nvidia einfach besser als AMD. Zumindest die Treiber
 
@Staubwedel

Schau mal bitte im Lexikon unter Unsinn nach! Da steht das, was du geschrieben hast.
MfG
Suessi22
 
Hoffentlich geht weder AMD, intel noch nVidia unter. Da nVidia mMn die schlechtesten Zunkunftsaussichten hat, wünsch ich denen besonders viel Erfolg, dass sie die APU-Kurve noch bekommen.

Bisher:
AMD sagt, CPU und GPU gehören auf einen Chip verschmolzen. intel bringt das zuerst auf den Markt.

nVidia sagt, eine CPU wird überflüssig die GPU rechnet viel schneller. intel und AMD integrieren die GPU auch für bessere Rechenperformance in die CPU.

intel treibt Raytracing voran um herkömmliche GPUs durch pure Rechenleistung zu ersetzen. nVidia baut einen der schnellsten Supercomputer in China, wo intel-CPUs nur zur Lastverteilung benutzt werden.

Demnächst
wird Raytracing kommen und vermutlich mit CPU und GPU (Cuda) rechnen. Dann hat nVidia hoffentlich ihre ARM-CPU fertig, damit kommen sie womöglich auf die Konsole und ins Netbook. Ich habe mir wohl dieses Jahr die letzte Grafikkarte ever gekauft.
 
@ Staubwedel

Wie kommst du denn auf denn darauf, dass AMD besser ist, als NVidia? Wie kommst du denn darauf, dass AMD die besseren Treiber hat? Wenn du schon solche Aussagen in den Raum wirfst, dann solltest du diese auch ordentlich begründen - am besten mit einigen Benchmarks und diversen Berichten über die jeweiligen Treiber.

In dieser Form ist deine Aussage nichts weiter als heisse Luft und den Platz nicht wert, denn du dafür in diesem Thread eingenommen hast.

Wenn du mit dieser Aussage einfach nur provozieren wolltest, dann solltest du hier deinen Account löschen und woanders hingehen. Solche Leute haben hier meiner Meinung nach nix zu suchen!
 
Neulich war ein Kumpel mit seinem Rechner mit einer HD5770 da und hat meinen alten PVA Monitor angeschlossen-> extrem helles, verwaschenes Bild, schlechter Kontrast.
Das ist mir damals schon mit meiner 9800Pro aufgefallen.
Ich dachte eigentlich ATI/AMD hat so entscheidende Dinge wie die Bildqualität mal auf ein erträgliches Niveau gebracht, wundert es mich eigentlich, warum überhaupt noch jemand Produkte dieser Firma kauft.
Wenn man dann noch daran denkt, das der AF Filter mit dem Niveau der Nvidia Karten nicht mal ansatzweise mithalten kann.

Bei den Treibern weiß ich nicht wie das heutzutage aussieht, aber damals zu Zeiten des Catalyst 3.7 habe ich mit meiner einzigsten ATI Karte mehr Probleme gehabt, wie mit allen Nvidia die ich bis jetzt gehabt habe und das waren mittlerweile schon 8 oder 9 Karten auf einen langen Zeitraum.
Probleme waren Abstüze im Desktop, in Spielen, Grafikfehler und und und.
Trotz All in Wonder habe ich es nie hinbekommen, mehr als ein verzerrtes Schwarzweiß Bild auf den Fernseher zu zaubern. Mit der Nvidia davor waren das 3 Klicks und fertig.

Ich finde es derzeit einfah schrecklich, dass die Tests immer gleich aussehen: 1 Seite Einleitung, 5 Seiten Benchmarks, 1 Seite Lautstärke und Temperatur und 1 Seite Fazit.
Über das, was die Grafikkarte hauptsächllich macht, nämlich das Bild wird kein Wort geschrieben.

Steam vs Hersteller Angaben:
Man kann beides nicht miteinander vergleichen.
Steam ist ein Abbild, von dem was in den Rechnern steckt. Der Hersteller sagt aber, was er im letzten Quartal verkauft hat. Wer vor 3 Jahren noch eine GTX260 gekauft hat, wechselt die zur Zeit noch nicht und wird bei Steam aufgeführt aber bei den Hersteller Angaben eben nicht.
Das Steam zudem nur die Spieler trifft, die vielleicht nur einen Teil des Marktes ausmachen wurde ja auch shcon mehrfach gesagt.

Letztendlich wird aber AMD nicht pleite gehen, auch wenn sie weniger Karten verkauft haben als Nvidia und solange noch (immerhin) die 2(3) Konkurrenten auf dem Markt sind, kann das nur gut für uns Kunden sein.
Das damals Nvidia 3Dfx gekauft hat, hat uns Kunden schließlich auch nur Nachteile gebracht.
 
ATI Grafikkarten/Chipsätze) Meine Grafikkarten/Chipsätze

Rage 128, Rage 128 Pro das müsste meine erste ATI gewesen sein ..gestochen scharfes Bild
Radeon 9600 Pro.......auch ganz sauber und schnell..(damals)
Radeon X850 Pro.......gestochen scharf war auch ganz flott
Radeon X1950 Pro..... genau das gleiche alles top
Radeon HD 3870........ alles top
Radeon HD 4670..........genau das gleich alles top

Onboard HD 3300 (790GX) ist ja wohl klar was hier steht Top Produkt
Onboard HD 4280 (890GX) wie üblich gestochen scharf

Nvidia

Riva TNT
Riva TNT2 habe ich glaube ich auch gehabt
GeForce4 MX 440 (Ouell Wikipedia) habe eigendlich MX 400 in Erinnerung
GeForce4 Ti 4200
7600 GT oder GS

waren auch alle gut ,

deswegen Verstehe ich nicht was das mit der Bildqualli immer soll
Die HD 6xxx Reihe hat hier wohl leichte Schwächen vermutlich nur wenn man es total eng sieht..hätte ich so eine Grafikkarte und hätte es vorher nicht gelesen würde es bestimmt nicht Auffallen oder es fällt trotzdem nicht auf ..es ist wohl eine Hardwaremässig Design Schwäche die sich auf einer auf Leistung getrimmten Einstellung ohne irgendweche Qualitätsfilter AA ,AF...sich auswirken kann.

Trotzdem wären wenn ich ein Gamerkarte brauchen würde grade die AMD HD 6850/70
meine Favoriten weil Sie für mich in der Summe der Eigenschaften hervorragend zu mir
passen würden.

Habe mich aber schon Entschlossen das AMDs Llano mit vorgibt was es für mich zu Gamen gibt (Gelegenheitsspieler). MFG :)

Ps ein hoher AMD Markanteil ist auch gut für uns Gamer , da die Gamersoftware Schmieden jetzt offtes gerne auf Nvidias Unterstützung bei der Erstellung des Games verzichten.
Gut für ausgeglichene "Software".
Bis ca 40 bis 60% wären noch Gesund höher braucht der AMD Anteil im Bezug auf Nvidia nicht zu werden(Grafikkarten) vlt auch lieber max 50 ..50% da AMD ja auch viel APUs fertigen wird.
 
Zuletzt bearbeitet:
Ich glaube da hat jeder andere Erfahrungen gemacht, welcher Hersteller letztlich eine höhere Qualität bietet, sowohl was Hardware als auch was Software betrifft. Auch wenn man auf eine Historie von 10 Grafikkarten zurückblicken kann, ist das wohl dennoch kaum repräsentativ, um davon wirklich ein objektives Urteil ableiten zu können.

Meine persönlichen Erfahrungen sind deutlich zugunsten AMDs, da ich in der Vergangenheit mit mehreren NVIDIA-Karten Probleme hatte (Abrauchen, bunte Pixel, schlechter TV-Ausgang), die aber alle in einer Zeit liegen, in der ATI noch keine ernstzunehmende Konkurrenz darstellte. Seit der Radeon 9700 verwende ich mit einer Ausnahme nur noch ATI/AMD-Karten und hatte dort ein defektes Modell, das nach einem Umtausch in Ordnung war. Probleme mit Treibern oder Spielen hatte ich nie. Zugegeben: Das CCC habe ich von Anfang an gemieden und auf die ATI Tray Tools gesetzt. Auch habe ich die Treiber immer manuell über die INF-Datei installiert und aktualisiert ab Vista. Das mag dazu beigetragen haben, dass in dem Bereich immer alles rund lief.

Was mich noch brennend interessiert: Es wird von AMD-Kritikern immer wieder die angeblich schlechte Bildqualität bemängelt. Ist damit jedes Mal lediglich die anisotropische Filterung gemeint? Ich habe in dem Zusammenhang immer nur diese bunten kaleidoskopartigen Grafiken gesehen aber nie direkte Screenshot-Vergleiche, die den Unterschied unter normalen Bedingungen demonstrieren. Ist da wirklich ein so großer praxisrelevanter Unterschied oder geht es lediglich darum, dass NVIDIA da einen messbaren aber im normalen Spielefluss nicht unbedingt wahrnehmbaren Qualitätsvorteil hat? Ich habe übrigens sämtliche Optimierungen aktiviert, bestehe aber bei jedem Spiel auf 16x-AF.
 
72,8 Millionen Grafikkarten

oh man das wird alles mal Elektronikschrott.
 
Zurück
Oben