Test 19 Grafikkarten von 20–90 Euro im Vergleich

Krautmaster schrieb:
Support of 3840x2160@60Hz without MST mode is limited to a select few Haswell models though (Haswell-H). The data sheets for the others say 3840x2160@30Hz, but are technically capable of driving 3840x2160@60Hz in tiled mode (using DisplayPort 1.2's MST feature)
MST sollte gehen, aber SST?
Wo soll das stehen? Bitte Seite nennen. Da wird nirgends MST auch nur erwähnt.

Vielleicht können die Mainbaordhersteller da auch noch was verkacken. Binden nicht alle Links an oder so. Manche Hersteller geben bei hren Boards auch UHD nur mit 24Hz an. Schon merkwürdig.

Aber in den Datasheets für die Desktop CPUs und mobile H-Modelle steht definitv UHD@60 Hz und das für 3 Displays wenn 3x DP implementiert wird. Nichts anderes.
Nur bei den ULX und ULT siehts anders aus.

Das schreit aber nach nen Artikel der das ganze mal ausführlich beleuchtet.
pipip schrieb:
Nein, weil man eben zwei DDR4 Slot verbauen müsste und diese dann auch einen höheren Takt haben müssten, damit es gegenüber DDR3 überhaupt auszahlt.
Wo ist das Problem bei 2 Slots und hohen Taktraten? Dafür ist doch DDR4 gemacht. :confused_alt:

Klar, für Carrizo ist das ganze zu früh. Aber bis zum nächsten Update sind die DDR4-Preise normalisiert dank Skylake.
Aber HBM ist doch auch nicht billig zu realisieren. Sonst hätten das die nächsten Grafikkarten schon längst implementiert. (Abwarten vielleicht kommt ja GM200 damit :D)
 
Zuletzt bearbeitet:
Aber HBM ist doch auch nicht billig zu realisieren.

Schau, das Projekt Skybridge von AMD verfolgt das Ziel, dass ARM und X86 Prozessoren von AMD Pinkompatibel werden.
Das heißt wir werden einen Sockel haben, bei dem man sowohl die X86 als auch die ARM Variante betreiben kann. Das soll laut AMD, den OEM und Kunden das Leben "erleichtern".
Jim Keller wurde auch in einem Interview gefragt, ob sowohl ARM und x86 eine GPU bekommen (Stichwort APU) und er hat zugestimmt, weil die ganze IP ja auf hUMA und Co setzt und die Unterschiede zwischen ARM und X86 per Hardware bereinigen werden kann.

Der Prozessor kommt laut PCGH News (CB gibt es keine News) in 14nm und im 1Q 2016, also in 18 Monaten.

The CEO of the Sunnyvale, California-based company said in an interview today that AMD still has to get through 18 months of old technology before the new chips are available.

Also, wir werden zwei SoCs haben und nur einen Sockel der Pinkompatibel ist.
Somit zwei CPU Architekturen sind vorhanden, die sich gegenseitig beeinflussen.
Wie ich die Lage einschätzte, wird AMD im Server-Geschäft auf dicke ARM Prozessoren setzten und falls der Bedarf da ist, wird man auch auf x86 zurückgreifen können, der Kunde kann also aussuchen. Gleichzeitig wird AMD für Desktop, Notebook und kleineren Geräte nur mehr ein X86 Architektur haben. Somit, wir könnten dieses mal von AMD eine Architektur erwarten, die eventuell nicht das Hauptaugenmerkmale auf den Server-Markt zielt, sondern gezielt für "unseren" Markt abgestimmt ist. Deshalb auch der Wegfall von CMT. Wer weiß, vllt wird CMT bei ARM-Architektur eingeführt ?

Aber HBM ist doch auch nicht billig zu realisieren. Sonst hätten das die nächsten Grafikkarten schon längst implementiert. (Abwarten vielleicht kommt ja GM200 damit )
Bis jetzt gab es eher nur Gerüchte, dass AMD HBM bereites bei den nächsten APUs und GPUs einsetzten wird. AMD hat auch schon dutzende Patente was die Anbindung und den Ansatz als unified Memory pool ect angeht.

Wieso man es nicht implementiert hat, liegt wahrscheinlich an 28nm. Aber 2016 hat AMD und NV einen anderen "Fertigungsprozess" höchstwahrscheinlich 16-14 nm. Deshalb haben wir es noch nicht in den Grafikkarten.

Und in den APUs macht es durchaus sehr viel Sinn, weil wie beschrieben, die neue CPU Architektur eventuell HBM als L3 Cache nützten könnte. Der SRAM ist da wesentlich "teurer" in Relation auf die Menge. Und eben durch hUMA macht es sehr viel Sinn HBM einzusetzten.
Ich bin gespannt wie schnell die 512 Shader dann sind. Auf 1GHZ mit 2 GB HBM wäre man da locker bei einer 7770. Der Verbrauch wäre ein Bruchteil davon, was eine Karte bis dato erreicht. (komplettes PCB fällt weg).

Wozu dann noch diese Grafikkarten unter 100 Euro ? Maximal 1 Chip für das Aufrüsten alter Systeme oder für den Einsatz von Notebook GPUs. (was bei AMD bereits jetzt schon der Fall ist, Mars)
 
Zuletzt bearbeitet:
Vandenburg schrieb:
Ich frag mich gerade wo da meine Ur-Alte 6950 und die 7850er liegen.
Diese Zwei Grafikkarten waren ja jeweils in der 200€ Klasse einmal unterwegs.
In letzter zeit drängt sich bei m

Die liegen im Bereich einer GTX 750 / 750Ti
 
Blueeye_x

Die 7850 ist schneller als die 750Ti, zwar nicht um wesentlich viel, aber die 265 basiert auf der 7850 ( aber 10% mehr Performance bei nur 10 Watt mehr Verbrauch). Die 7850 ist also 5% schneller als die 750Ti.
 
pipip schrieb:
Die 7850 ist also 5% schneller als die 750Ti.

Bei 5 % würde ich nicht von "schneller" sprechen.Das kann je nach Spiel mal so und mal so aussehen.Zumal es bei der 750Ti deutliche Unterschiede in der Performance gibt, da sie von vielen Herstellern teils deutlich übertaktet angeboten wird.Die Evga 750Ti läuft auf GTX 660 Niveau.
 
Blueeye_x

Okay, gemittelt 5% schneller ^^ aber sie liegt nicht zwischen genannten Karten. Von der 7850 oder besser gesagt R7 265 gibt es ebenso OC Varianten, auf das kann man schwer eingehen, deshalb vergleicht man oft Referenz Karten.

Was aber die 750TI besonders macht, sie braucht kein Anschluss und ist momentan die schnellste ITX low Profile Karte. Hier wie damals bei der 7750, führt bei NV zur Zeit kein Weg vorbei.
 
pipip schrieb:
Schau, das Projekt Skybridge von AMD verfolgt das Ziel, dass ARM und X86 Prozessoren von AMD Pinkompatibel werden.
Was hat der ganze Exkurs mit HBM und dessen Kosten zu tun?

Bis jetzt gab es eher nur Gerüchte, dass AMD HBM bereites bei den nächsten APUs und GPUs einsetzten wird.
Genauso wie GDDR5 bei der jetzigen Generation...
Gerüchte gibts viele. :D

Wieso man es nicht implementiert hat, liegt wahrscheinlich an 28nm.
Inwiefern soll der Fertigungsprozess da eine Rolle spielen?


Und in den APUs macht es durchaus sehr viel Sinn, weil wie beschrieben, die neue CPU Architektur eventuell HBM als L3 Cache nützten könnte. Der SRAM ist da wesentlich "teurer" in Relation auf die Menge.
Nur das jetzige APUs gar keinen L3 Cache haben. Man spart zu jetzigen APUs nichts ein, ganz im Gegenteil.
Der Nutzen aus Performancesicht ist eindeutig, aber ich glaube du hast zu romantische Vorstellungen davon, was HBM auch an Kosten verursacht.
Im Performancesegment werden wir es glaub ich recht schnell sehen. Aber AMD verkauft im Mainstream bis Lowcostbereich.
AMD bedient momentan mit einem Die die Spanne von 40-140€.
 
NuminousDestiny schrieb:
Mir erschließt sich der Sinn nicht so ganz von den Karten.
Für zum Spielen eigentlich zu schwach.
Für Desktop betrieb dank integrierter GPU in den Prozessoren überflüssiges Extra, das kaputt gehen kann und Platz wegnimmt?

Genau das frage ich mich auch jedes mal. Das sind Karten die die Welt eigentlich nicht braucht.
 
wazzup schrieb:
Genau das frage ich mich auch jedes mal. Das sind Karten die die Welt eigentlich nicht braucht.
Wieso nur weil die für dich zu schwach sind ?
 
Noe - weil es Ramschware/Resteverwertung der Hersteller ist. Fuer das Gebotene zu teuer. Fuer office gibt es integrierte Alternativen und 20€ Karten, fuers Zocken sind sie zu schwach und gerade da kommt man dann bei ebay usw. besser weg wenn es nur ums liebe Geld geht....
 
bensen
HBM verbraucht ein Bruchteil Die-Size was GDDR 5 braucht und ist dabei wesentlich schneller, effizienter, dazu kannst du dir mal die Tabelle anschauen.
Und es müssen nicht gleich 4 GB sein.
http://www.3dcenter.org/news/ein-moeglicher-grafikspeicher-der-zukunft-high-bandwith-memory-hbm
Das gleiche gilt übrigens auch im Vergleich zu DDR4 (google es einmal).

2015 wird AMD offensichtlich schon HBM in einer GPU nützten, 2016 mit der neuen CPU Architektur auch für Desktop, Notebook ect.

Auch will AMD zurück in den Server Markt und mit HBM könnte man dann gleich mehrere GB an l3 Cache anbieten. Das macht somit auch für die neuen AMD APUs 2016 Sinn, weil man ja mit dem gleichen Sockel sowohl die fetten ARM Prozessoren (viele Cores mit modernen instruction set) als auch AMD APUs anbieten möchte.

Somit es spricht vieles für HBM. DDR4 wird auch seinen Part haben, aber die Kern-Technologie wird wohl HBM in der nächsten Generation einnehmen und ich bin zuversichtlich, dass AMD sein neue CPU Design deshalb Richtung HBM optimieren wird.
AMD könnte sogar 2016 somit rein theoretisch auch noch mit DDR3 fahren.

Was die Fertigung angeht. Die APUs 2016 sollen die FX ablösen, dass heißt, die APUs werden dann auch für High-End stehen.
Die GPU von Kaveri muss nicht mal aufgebohrt werden um mit der Konkurrenz Stand zu halten. Die Konkurrenz schafft mehr Performance momentan nur durch eine sehr große IGP mit sehr hohen Takt(die sogar in 22nm größer ausfällt als die von Kaveri) und einem fetten eDRAM.
Somit bei der APU 2016 reichen sogar 512 Shader in GCN in aktueller Ausführung mit HBM aus, um die Performance 2015 und die mit Intel zu konkurrieren, denn wie gesagt, ohne Bottleneck wäre die Kaveri R7 bei einer 250X.
Der l3 Cache wäre somit komplett Fehl am Platz. Intel hat den "l4 Cache" der in erste Linie für die GPU da ist. AMD nützt aber HSA/hUMA.

Die Vorteile, bei CPU, GPU Performance, der minimale Verbrauch, kein Bedarf an Quad Channel ect, das überwiegt den höheren Kosten, wenn man APUs auf den Markt bringen, die deutlich schneller sind, als aktuelle APUs. Das Preislimit wächst also dann nach oben.

Aber ja 2016 kann vieles passieren, deshalb bleibt meine Behauptung/Darstellung romantisch, aber ich würde da nicht so skeptisch sein, wenn AMD und Hynrix davon reden, dass die Technik bereits Fertig zur Anwendung ist. Vllt sollte man 2015 abwarten und man sieht die erste GPU bereits mit HBM. Interessant ist ja nämlich die Aussage :
http://www.tweakpc.de/news/31148/amd-fiji-riesen-gpu-mit-fast-600-quadratmillimeter-die-flaeche/
Ein heiß diskutiertes Detail ist die Bemerkung, dass ein großer Teil der Die-Fläche nicht für Shader reserviert sein soll. Womit die zusätzliche Fläche gefüllt wird, ist bisher Gegensatnd wilder Spekulationen. Möglich wäre etwa ein auf dem Die verbauter Speicher.

HBM wird aber wenn man Patente von AMD verfolgt, zuerst nicht on-Die sein. Vllt sogar wie bei Intel nur Optional. In einem anderen Patent steht irgendwas von L1 und L2 Cache sind SRAM in Core Design und L3 Cache ist HBM außerhalb des Core Design.

https://www.google.com/patents/US20140181389?
Accordingly, non-limiting embodiments include an installation cache. The installation cache may also be implemented using any of the memory technology examples mentioned above, but generally, has a memory technology selected to have a lower latency than the L3 cache. In a non-limiting example, the installation cache may be realized using SRAM while the L3 cache is implemented using die-stacked DRAM. When data is fetched from the main memory, the data is loaded by the L3 cache control into both the L3 cache and the installation cache via the interconnect. In some embodiments, the data is loaded simultaneously into the L3 cache and the installation cache. In some embodiments, the data may be loaded serially, generally first in the installation cache and then into the L3 cache. Due to the lower latency, data will become available to be returned from the installation cache prior to being loaded into the L3 cache. After the data becomes available in the L3 cache, the data may be removed from the installation cache or may be left in the installation cache or over-written as necessary to load new data into the installation cache. In this way, the advantages offered by die-stacked DRAM may be achieved with a lower risk of cache misses and reduced system performance due to higher latencies.

PS: ich glaube gar nicht, dass HBM in Relation soviel teurer ist, als SRAM. Im Vergleich überwiegen wie gesagt, die Performance wohl die Kosten. AMD will ja neue High-End CPUs und wieso die neuen Cores, die vom Grund auf neu entwickelt worden sind nicht gleich auf diese Technologie optimieren.


Falls ich also Recht habe, werden solche Grafikkarten wie hier im Test, bald tatsächlich der Vergangenheit angehören, besonders weil Kaveri jetzt allein schon keine schlechte Figur macht und offensichtlich genug User hier gebe, die dann wohl so eine APU auch ohne Grafikkarte kaufen würden.
 
Zuletzt bearbeitet:
BulliSabber schrieb:
Mir fehlt die HD7750 GDDR5 im zusätzlichen Vergleich, ...
Oder die aktuelle Version davon: R7 250 mit Cape Verde statt Oland.

Tomahawk schrieb:
... Du weißt schon, dass die 7790 ein altes Modell ist, oder? Getestet werden 2014er Karten und nicht ältere Modelle, von denen noch einzelne Exemplare bei einigen wenigen Händlern verfügbar sind.
Du weißt schon, dass in den Vergleich aber noch ältere Modelle als die HD 7790 aufgenommen wurden, oder?
 
Statt zu einer neuen Low-End-Karte habe ich diesen Frühling zu einer ehemaligen High-End-Karte, der HD5870, gegriffen. Für 30€ spielt dieses Modell auch aktuelle Games bei FHD und mittleren Details, mehr kann keiner der hier vorgestellten Kandiaten. Nur der Stromverbrauch ist viel höher, aber naja.
 
D0m1n4t0r schrieb:
... wozu braucht man da ne Dual-Slot Karte ? Um die Karte gescheit zu kühlen jedenfalls nicht.
Gerade für Leute mit kleinen mini-ITX Systemen wäre so ne GTX 750ti super, doch die wirklich kleinen Gehäuse haben nur Platz für eine 1-Slot breite Grafikkarte.
Vermutlich stecken hinter so geilen Ideen wieder die Marketingfuzzis die davon ausgehen dass der Kunde denkt dass eine 2-Slot breite Graka leistungsfähiger ist als eine 1-Slot breite ...
+1
 
Zuletzt bearbeitet:
pipip schrieb:
bensen
HBM verbraucht ein Bruchteil Die-Size was GDDR 5 braucht und ist dabei wesentlich schneller, effizienter, dazu kannst du dir mal die Tabelle anschauen.
Du redest vom Speicherinterface, nicht vom Speicher selber. Denn der muss mit aufs Package, was die Kosten treibt.
Bei Grafikkarten ist der MMC wirklich riesig, das gilt aber nicht für nen simples deutlich schmaleres DDR3 Interface. DDR4 wird jetzt auch nicht so dramatisch zugelegt haben.
1. reden wir bei Hawaii von 512 bit und 2. von extrem hohen Taktraten. Wenn ich mal grob so nen Kaveri Die shot anschaue komme ich auf <25mm².
Die 15 mm² für 4096 bit möchte ich dann auch erst einmal sehen. :D
Also die Fläche für den Speichercontroller kannst du definitiv vernachlässigen.

2015 wird AMD offensichtlich schon HBM in einer GPU nützten, 2016 mit der neuen CPU Architektur auch für Desktop, Notebook ect.
Offensichtlich? Da gibts doch noch gar nichts handfestes.
Auch will AMD zurück in den Server Markt und mit HBM könnte man dann gleich mehrere GB an l3 Cache anbieten. Das macht somit auch für die neuen AMD APUs 2016 Sinn, weil man ja mit dem gleichen Sockel sowohl die fetten ARM Prozessoren (viele Cores mit modernen instruction set) als auch AMD APUs anbieten möchte.
Ja, bei richtig großen CPUs/APUs im Highendbereich macht das sicher Sinn. Ist nur die Frage ob AMD das anstrebt bzw. auch erreicht. Du schreibst ein Szenario wo AMD wie Phoenix aus der Asche mit massig Highend-Produkten auf den Markt kommt.
Und das hört sich für mich nicht nach Produkten im Consumerbereich an.

AMD könnte sogar 2016 somit rein theoretisch auch noch mit DDR3 fahren.
Ist die Frage ob man das will. Ich bezweifle, dass es 2016 noch Gründe gibt auf DDR3 zu setzen.

Aber AMD muss sich was einfallen lassen. Ihr Vorteil in Sachen GPU-Knowledge bringt ihnen seit der letzten Produktgeneraton rein gar nichts mehr. Da der Speicher limitiert, liegt der Großteil bei Kaveri eh brach. Intel kann dadurch ganz einfach nachziehen. Dass deren IGP größer ist stört die nicht, da die Dieflächen immer noch sehr klein sind. Und dadurch, dass sie sogar ne (teure) Lösung für das Speicherproblem gefunden haben, haben sie AMD im mobilen Bereich hinter sich gelassen.
Da wird man sicherlich möglichst früh neue Speicherstandards nutzen wollen. Aber wenn das mit Kosten verbunden ist, geht das auch nru wenn man die Produkte mit entsprechendem Preis verkaufen kann.

Aber die Zukunft ist definitv Wide IO. GDDR6 ist ja afaik auch gecancelt. Man geht in die Breite. Bei GPUs HBM mit 1024-4096 bit. Im Mobilen Bereich ists "Wide I/O 2", wurde gestern von der JEDEC vorgestellt. Rundet wohl LPDDR4 nach oben hin ab.
 
Im PC meiner Eltern werkelt eine HD6450 (passiv) für 30 Euro und ist völlig ausreichend. Spiele laufen dort sowieso nie und die CPU hat leider keine integrierte GPU. Für Endverbraucher mit solchen Ansprüchen sind solche Karten völlig ausreichend. Hauptsache die UI von Windows 7 läuft :D

Als Zocker vergisst man leider oft, dass eben nicht alle eine >200 Euro Grafikkarte brauchen. Für viele ist "gut genug" eben völlig ausreichend.
 
Den größten Wertverlust haben doch eh immer nur die sogenannten "High-End Modelle". Wer meint jede Generation 500 € für die aktuellste Grafikkarte ausgeben zu müssen um immer "vorn mit dabei zu sein", kann das doch tun.

Ich halte es jedenfalls für wenig sinnvoll jedes Jahr Geld für eine neue Grafikkarte auszugeben.
 
Die 650ti von Zotac ist mit 90 Euro noch weit über der 750 Leistungstechnisch, allerdings auch mit höherer TDP.
 
Hallo,

ich finde den Test super. Endlich mal geht eine Hardware-Seite auf Einsteigerkarten ein und scheut den Vergleich zu älteren Generationen nicht. Allerdings find ich auch 3 Sachen sehr schade:

- keine Lautstärketests
- Keine Tests zu Dual Graphics. Wenn schon der A107850K sowie die R7 240/250 getestet werden, warum dann nicht in Kombination?
- Keine R7 250E Karte (umgelabelte HD 7750) im Test

Des Weiteren ist es schade, dass man nicht weiß, welcher Core auf welchen Karten steckt. Die GT 730 haben ja entweder den GF108 Fermi oder den GK208 Kepler drauf. Auf welchen die Asus und die Zotac Karte basieren weiß man aber nicht.

Fehlerteufel: :evillol:
Die GT 740 basiert dagegen nicht auf dem GK208, denn der besitzt nur ein 64bit Speicherinterface. Sie hat den älteren GK107 Kepler Chip drauf und verbraucht deswegen mehr Strom.
 
So viele verschiedenen Grafikkarten in dem Budgetbereich da wird es selbst für Leute die in der Materie vertraut sind öfter mal unübersichtlich, finde zudem das viele der Karten sowas von unnötig sind und auch eben nur Resteverwerung der Chips sind.
Meiner Meinung braucht man bei den Karten bis 100€ maximal 3-4 Karten von beiden Herstellern, eine für 20-25€ die sehr sparsam ist und als Ersatz gilt für ältere Systeme wo vielleicht die GPU vom Board oder so nicht mehr ausreicht und dann eben noch jeweils eine Karte in dem Budget von 50-60€ und 80-90€, wäre zumindest für den Kunden besser.

Sontin schrieb:
Die GTX750 ist beeindruckend. Trotz 50% Mehrleistung gegenüber der 250 G5 braucht das Gesamtsystem gerademal 8W mehr.

Und schaut man sich den Preis an, bietet die GTX750 mit das beste Verhältnis.

Im Test schon, aber die R7 260X gibt es auch schon für 93€ und kommt wohl ca. auf das gleiche Niveau, aber der Verbrauch ist da natürlich höher.

Blueeye_x schrieb:
Bei 5 % würde ich nicht von "schneller" sprechen.Das kann je nach Spiel mal so und mal so aussehen.Zumal es bei der 750Ti deutliche Unterschiede in der Performance gibt, da sie von vielen Herstellern teils deutlich übertaktet angeboten wird.Die Evga 750Ti läuft auf GTX 660 Niveau.

Die muss dann aber ja schon um 20-25% übertaktet sein, die lezten Infos die ich habe ist das die GTX 660 ca. 15-20% besser ist als die HD 7850, welche aber wiederum auch noch ein paar Prozent besser als die GTX 750Ti sein soll.
 
Zurück
Oben