News Der Markt für diskrete Grafikkarten schrumpft weiter

Wenn der Markt für diskrete Grafikkarten schrumpft, was bedeutet das dann?
- Es spielen weniger Menschen.
- Es wird glich viel (oder sogar mehr) gespielt, aber auf anderen Geräten.
- GPU's bleiben länger im Rechner und werden nicht mehr so oft upgedated.
 
yxcv schrieb:
Möglicherweise wurde die Tabelle optimiert, aber die 8% beziehen sich auf die absolute Stückzahl,
nicht den relativen Marktanteil.

Ahh Danke ;)

OK nochwas - ich weiß nicht wer es geschrieben hatte -- ABER !! Ich weiß absolut nicht, wie die Person drauf kam, das AMD lautere Karten als Nvidia baut ?! ...

Es gibt immer schwarze Scharfe - also echt laute Karten - bei Nvidia sowie AMD

Bisher muss ich aus meiner persönlichen Erfahrung heraus sagen - das Nvidia Karten meist heißer sind ( wenn sie in der selben Leistungsklasse sind )

Wenn man also die Lüfterkurve der AMD Karten an die Temos der Nvidia Karten anpassen würde - wären die AMD ( auch liebevoll noch immer von mir ATi - Karten genannt ) definitiv leiser ... xD

krass wieviel hier nur über "ein" Wort in der Überschrift disskutiert wird ;)
 
MikelMolto schrieb:
Wenn der Markt für diskrete Grafikkarten schrumpft, was bedeutet das dann?
- Es spielen weniger Menschen.
- Es wird glich viel (oder sogar mehr) gespielt, aber auf anderen Geräten.
- GPU's bleiben länger im Rechner und werden nicht mehr so oft upgedated.

Du hast was vergessen,
- OEMs verbauen immer weniger unnötige kleine Grafikkarten wie die G605, GT 610, HD 7450, HD 8450 usw.
da die CPU schon eine iGPU hat.;)
 
frankkl schrieb:
Wer kauft schon diese unnützen teueren grossen lauten stromverschwendungs Grafikkarten :(

Eine Grafikkarte sollte unter 80 Euro kosten passiv gekühlt sein
und ein Verbrauch deutlich unter 70 Watt haben viel mehr kann der PCIe nicht zuverfügung stellen.

frankkl
Gerade die Karten verlieren ihren Marktwert immens durch die iGPU, denn für so einen Quatsch kann man mittlerweile wirklich die iGPU nutzen und muß nicht extra Geld auf den Tisch legen.
Abgesehen davon halte ich von dem Konzept "passiv" gar nichts.
 
Hängt vermutlich auch mit dem geringeren Leistungszuwachs von Generation zu Generation zusammen. Reste werden sicherlich auch noch abverkauft, bevor neues von nVidia/AMD & Co. geordert wird.

Hoffentlich ändert sich da wieder etwas mit der neuen Konsolengeneration. Damit die Karten mal wieder auch benötigt werden :D
 
HOOKii schrieb:
Warten wir mal 1 Jahr ab, ob dann Nvidia noch zulegen wird, was ich sehr bezweifel. AMD wird jetzt immer mehr zulegen. Wetten?

Nicht bei diskreten GPUs. Dafür ist AMD einfach zu schlecht.
Für die 50€ weniger kauft man sich nur mehr Probleme und fehlende Technologien.
 
black90 schrieb:
Nicht bei diskreten GPUs. Dafür ist AMD einfach zu schlecht.
Für die 50€ weniger kauft man sich nur mehr Probleme und fehlende Technologien.

Erläutere mal bitte die Probleme, die man sich nach deiner Meinung gleich dazu kauft.
Und ich hoffe du meinst mit fehlenden Technologien nicht PhysX & Co.
 
Was mich interessieren würde (falls jemand hierüber schon gesprochen hat - sorry, ich habe die anderen Seite gelesen und zum Teil nur überflogen), ob und wie lange diskrete Grafiklösunge für bestimmte Anwedungen noch notwendig sein werden. Ich glaube hier ist ein Trend auszumachen.
Ich bin zwar leidenschaftlicher PC-Bastler und Spieler, aber trotzdem ist es doch (für mich) immer wieder erstaunlich, was die Konsolen aus Ihren begrenzten Onboardmöglichkeiten herausholen. In ein paar Jahren könnte die Entwicklung doch durchaus dahingehen, dass die Hardware hier soweit wäre einen Großteil der diskreten Grafiklösungen zu ersetzen, dass die Programmierung auf der Konsole bis her noch besser angepasst ist, steht außer Frage. Mal sehen, was Mantle so bringt. Natürlich wäre dann der Nachteil, dass die Austauschbarkeit nicht dermaßen gegeben wäre, wie bei diskreten Lösungen. Es könnte ja theoretisch ähnlich verlaufen, wie bei den Soundlösungen. Leute mit etwas höheren Ansprüchen nehmen sich eine diskrete Lösung und für die "Standardansprüche" gibt es Onboardlösungen.
 
Nicht nur OEMs verbauen immer weniger unnötige kleine Grafikkarten, sondern wir selbst doch auch. Der Rechner meiner Frau läuft mit iGPU.
 
White_Eagle schrieb:
zu diskret,
siehe: http://www.duden.de/rechtschreibung/diskret

Wer braucht schon taktvoll, rücksichtsvolle und im geheimnisvollen, verborgenen arbeitende Grafikkarten?
Gibt's denn überhaupt nen Markt dafür, außer der NSA u.ä.?
Der Duden ist immer eine gute Quelle, wenn es um sprachliche Dinge geht. Leider hast du die von dir zitierte Fundstelle nicht bis zum Ende gelesen, sonst hättest du folgendes gefunden:
durch endliche Intervalle oder Abstände voneinander getrennt

Herkunft
französisch discret < mittellateinisch discretus = abgesondert, zu lateinisch discernere = absondern, unterscheiden

Gebrauch
Technik, Physik, Mathematik

Beispiele
  • diskrete Halbleiter, Bauteile
  • eine diskrete (nicht integrierte) Schaltung
 
"Diskret" bezieht sich auf die "bauliche" Trennung von anderen Bauteilen (z.B. der CPU oder dem Chipsatz) und "dediziert" bezieht sich darauf, dass die GPU nur eine spezielle Aufgabe (Grafikausgabe) hat.

Eine GPU auf einer typischen Grafikkarte ist also sowohl diskret als auch dediziert.

Eine APU hingegen ist ein integriertes Bauteil, das in sich eine CPU, eine GPU und diverse klassische Chipsatzkomponenten vereint. Und damit ist sie auch nicht dediziert, sondern erfüllt eine Vielzahl unterschiedlicher Aufgaben.
(Ich bin mir nicht sicher, was das offizielle Gegenteil von dediziert ist. Vielleicht universell. ;) )
 
OK, ok, @Mobilus, hast ja Recht,
aber finde ich sprachlich im Umgang die begriffliche Bezeichnung von dediziert unmißverständlicher.
Sun_set_1 schrieb:
... Aber da die GPU innerhalb einer APU einen eigenständigen Schalktkreis, auf einer eigenständigen physikalischen Oberfläche darstellt, würde sie halt mMn auch unter diskrete Lösungen fallen.

Ich will nicht darauf hinaus das die Bezeichnung falsch ist, sondern das man daraus nicht differenzieren kann.

;)

... Unter dem Gesichtspunkt macht's meiner Meinung nach einfach den größeren Sinn weiterhin von dedizierten oder integrierten Lösungen zu sprechen.

Könne man dann demzufolge, die mit einer CPU zusammen verbaute Grafiklösung (APU oder iGPU [ist für mich jetzt irgendwie das selbe]? bei Intel und AMD?),
auch als eine integrierte diskrete, jedoch als eine nicht dedizierte GPU bezeichnen (es sich also dann nicht um eine: dGPU? handelt), oder wie? :freaky:
 
Zuletzt bearbeitet:
@Herdware

GPUs sind doch schon lange nicht mehr dediziert... Ich sage nur Physx oder andere Berechnungen wie Video kodierung bzw. das cracken von Passwörtern.

Ich sage mal bis ~ 2006 waren Karten tatsächlich beides. Seit dem gehen sie aber immer mehr zum GPU Computing und es ist nicht mehr so klar.

Ich stimme dir aber zu der anderen Erklärung 100% zu :) Gleiches gilt natürlich auch für iGPUs und nicht nur APUs.
 
Cool Master schrieb:
GPUs sind doch schon lange nicht mehr dediziert... Ich sage nur Physx oder andere Berechnungen wie Video kodierung bzw. das cracken von Passwörtern.

Zugegeben. Die GPU wird heute vielseitiger benutzt als früher. Aber GP-GPU sehe ich auch als eine klare Aufgabe der GPU. Sie wird dadurch kein universelles Bauteil, das zahlreiche verschiedene Aufgaben übernimmt. Schließlich werden bei GP-GPU ja auch genau die Recheneinheiten benutzt, die sich sonst um die Grafikberechnung kümmern.
Da weichen eher schon die neuen AMD-GPUs die Grenzen auf, die zusätzlich auch spezielle Sound-DSP eingebaut haben.

Meine Grundaussage bleibt bestehen: Diskret bedeutet eine "bauliche" Trennung, dediziert eine funktionelle Trennung.
Das sind keine inhaltsgleichen Begriffe, sondern können theoretisch auch einzeln und in beliebiger Kombination auftreten. Im Fall einer klassischen GPU treffen sie beide zu, wenn man nicht allzu kleinlich wird.
Wenn man Erbsen zählen will, ist eine GPU allein schon deshalb nicht diskret, weil sie z.B. gewöhnlich einen Speichercontroller integriert hat. ;)
 
Jo @Herdware, deine begriffliche Darlegung klingt verständlich, einfach und auch logisch.

PS.
was ist jetzt aber der Unterschied zw. einer APU und einer Nicht-dGPU (Intel i5, i7 [mit integrierter Grafiklösung] und einer AMD APU)?
Winchester73 schrieb:
@WhiteEagle
Was eine APU ist, ist an dir vorbei gegangen. :lol:
Wieso kann man bei Intel dann nicht auch von einer APU sprechen?
 
Zuletzt bearbeitet:
Sun_set_1 schrieb:
Da allerdings auch einzelne elektrische Widerstände eine "diskrete" Einheit darstellen, wären im weiteren Sinne die GPUs innerhalb der APUs auch wieder diskrete Einheiten.
Im Elektro(oder Digital-)technik-Jargon bezieht sich diskret eigentlich üblicherweise auf ICs. Wenn also mehrere Logikbausteine auf einem IC vereint sind, dann sind diese nicht mehr diskret. Früher war zum Beispiel die FPU immer ein diskretes Bauelement. Mittlerweile sind diese aber immer mit der CPU auf einem Chip vereint und damit nicht mehr diskret.
 
White_Eagle schrieb:
Wieso kann man bei Intel dann nicht auch von einer APU sprechen?

Auch Intel hat APUs im Jahr 2012 vorgestellt. So ist die GPU in den Ivy-Bridge-Prozessoren durch Unterstützung von OpenCL und Direct Compute auch für universelle Computerberechnungen nutzbar.[6]

;)
 
TheCounter schrieb:
APU's werden immer langsamer sein als eine dGPU.
Das glaube ich nicht, ganz im Gegenteil.

Die dedizierten Grafikkarten sind nur deswegen schneller, weil sie ihren eigenen RAM als Texturpuffer nutzen und in die GPU opulenter gestaltet ist. Letzteres ist strategisch geplant.
Für die Sache mit dem RAM hat intel bei der HD5200 (iris-PRo?) erfolgreich einen Lösungsweg vorgestellt. Eine GPU gehört zur CPU, einfach auf Grund der kurzen Wege, weil kein PCIe zum Flaschenhals wird und man direkt am Speichercontroller sitzt.
Für den Kunden bedeutet dies kompaktere preiswertere Hardware, für die Hersteller damit weniger Umsatz.

AMD hat da einen Geist aus der Flasche gelassen, was der ganzen Branche (einschließlich AMD) ein Dorn im Auge ist.
 
@emeraldmine

Bitte lesen ;) Es ging um APUs ergo um CPUs nicht um GPUs.
 
Zurück
Oben