News AMD: Vega für Enthusiasten kommt erst 2017

Wie amüsant, die AMD-Fraktion gerät in Erklärungsnot und wird mehr auffälliger durch passiv-agressives Verhalten.
Na dann müssen sie halt mit 2 RX480 im Crossfire leben um mit 2k-Auflösung+ die aktuellen Spiele zu spielen, samt Mikroruckler:evillol:.
AMD kann eigentlich den Highend-Markt vergessen, da sie nicht die Kapazitäten und Kapital haben um da etwas groß zu reißen, zumal sie sich ja noch auf die Zen-Plattform konzentrieren müssen.

Von daher meine vernünftige Spekulation, dass Vega10 der GTX1080Ti sowohl in Leistung, Energieeffizienz als auch Preis (HBM2 wird so teuer werden) unterlegen sein wird.

Daher einen schönen Tag noch.:mussweg:
 
Malar schrieb:
Drückst du dich in deinem Umfeld auch so aus? Ist das die deutsche Wut oder nur etwas zurückgeblieben bzw. Realitätsverlust von German-Rap und FPS-Games?
Dann musst du mir noch verraten wofür die Abkürzung B.R.A.I.N steht.

Was beschwerst du dich jetzt über mein "German-Rap" ? (Was soll das sein ?) Auf "Troll"posts wie deinen reagiere ich eben manchmal so.

Dein Original-post war qualitativ ja wohl keinen Deut better.

B.R.A.I.N. ist ein acronym das man gern benutzen kann wenn die Frage sich durch Benutzung des oberhalb des Halses ansetzenden Denkapparates von selbst-beantwortet.

Alternativ biete ich dir noch "Binary Receptor for Advanced Intelligent use of Neurons" = Kurz B.R.A.I.N.

----
Vom Launch bis man die Karte in den Händen hält vergehen auch noch Monate, für einen Arbeitskollegen eine Gainward 1080 bestellt, da warten wir nun seit 2 Monaten drauf und ein Lieferdatum ist nicht bekannt.

Und das ist bei JEDEM release so oder nur bei der 1080 ? Also ich konnte schon Karten direkt bei Release kaufen - mache ich nur in der Regel nicht.

Und warum ich jetzt Leistung brauche ist offensichtlich ziemlich einfach, weil die Leistung jetzt nicht reicht auf 4K genügend FPS zu liefern bei gemoddetem TW3.

Das mag offensichtlich sein. Erwähnt hattest du es oben aber nicht warum das so ist.
Und Fakt ist wenn du JETZT diese Leistung brauchst - warum dann in einem Vega-Thread rumposaunen.
Jetzt gibt es die 1080. Wenn du also JETZT die Leistung brauchst, kaufe sie.

Wenn dir das JETZT zu teuer ist -, ja DAS ist ein ganze anderes Problem.

2.) Wann hatte AMD denn einen Vega release jemals zu einem früheren Zeitpunkt (also z.B. JETZT) angedeutet ? NIE.
Oder wenn doch dann bitte um Quelle. Mir ist so eine Information seitens AMD nicht bekannt.
 
Bartmensch schrieb:
Warum AMD keine GDDR5x verwendet hat auf der RX?
Weil diese RAM Art eben teurer ist und das RAM Interface davon auf Grund der geringen Bandbreite vermutlich nicht profitieren würde.
Denn die RX /Polaris hat ja nur 256 Bit.

Dir ist schon klar, dass sich die Bandbreite des Speichers aus der Breite des Interfaces und dem Takt des Speichers ergibt? Mit höher taktendem Speicher steigt auch bei schmalem Interface die Bandbreite...die 1080 hat auch nur 256bit.
 
Zuletzt bearbeitet:
Hardware_Hoshi schrieb:
Hm, geredet hat AMD leider zu wenig. Da waren eine Menge widersprüchliche Angaben im Raum. Die jetzige Meldung ist die erste brauchbare News seit langem und selbst sie ist sehr vage. Bessere Informationspolitik würde für AMD Wunder bewirken.
Das stimmt schon, sie hätte öfter etwas sagen können, obwohl wenn man direkt sagt, in 1,5 Jahre oder so kommt eine Top-Grafikkarte, dann hilft das glaube ich auch nicht so viel.
Da halfen dann die Gerüchte von einem Oktober-Release doch gleich mehr, weil viele dann doch eher noch bereit waren, zu warten.



Hardware_Hoshi schrieb:
Ich frage mich jedes Mal, warum es unbedingt HBM/HBM2 sein muss. Hat AMD denn keinen Plan-B oder zumindest ein Ausweichprodukt, falls es nicht klappt? Für meinen Geschmack sind die Radeon-Releases ein wenig zu kurz geplant. Das wirkt irgendwie konfus.
Naja, "unbedingt" HBM2 muss es nun auch nicht sein, obwohl man bei den Furys schon gesehen hat, dass in HBM ne Menge Potenzial steckt. Aber du bringst es auf den Punkt, "zur Not" hätte man ja eine Vega Variante mit GDDR5X zwischenschieben können als Topmodell (allerdings sieht man ja auch bei der GTX 1080 schon recht deutlich, dass auch GDDR5X noch limitierend wirkt). Denn die Frage stellt sich eh, wie es dann wieder mit der Verfügbarkeit der Karten aussieht. Bei der Prozesstechnik wird es dann sicher schon flüssiger laufen mit größerer Ausbeute, als jetzt noch bei Pascal und Polaris, aber ob genügend HBM2 zu Verfügung steht, ist dann wieder eine andere Frage ...
und meiner Meinung nach ist der Markt im Preisbereich um 350-450€ auch noch ziemlich groß, da WQHD und UHD immer weiter im kommen sind. GTX 1080-Konkurrent muss gar nicht sein (zumal die Preise für die AMD-Karten auch nicht günstiger wären, sieht man ja bei Fury X für anfangs 700€), aber eine Karte im Bereich der GTX 1070 würde sich sicher super verkaufen ... WQHD-sicher mit UHD-Option und dort dann den Vorteil, wenn es doch mal nur 30-40 fps sind, Freesync zuzuschalten
 
Hardware_Hoshi schrieb:
Hm, geredet hat AMD leider zu wenig. Da waren eine Menge widersprüchliche Angaben im Raum. Die jetzige Meldung ist die erste brauchbare News seit langem und selbst sie ist sehr vage. Bessere Informationspolitik würde für AMD Wunder bewirken.

Oder zu viel - wie man's nimmt. Aber in solchen Dingen war AMD noch nie gut.

Ich frage mich jedes Mal, warum es unbedingt HBM/HBM2 sein muss. Hat AMD denn keinen Plan-B oder zumindest ein Ausweichprodukt, falls es nicht klappt. Für meinen Geschmack sind die Radeon-Releases ein wenig zu kurz geplant. Das wirkt irgendwie konfus.
Ich kenn' mich nicht so gut aus aber Der Chip muss ja zusammen mit dem HBM Speicher auf einem Interposer sitzen - ich wette AMD müsste erst neue Chips anfertigen, wenn auf HBM verzichtet werden soll - auch wieder zusätzlicher Aufwand. Und wenn Nvidia weiter auf GDDR5(x) setzt, dann ist HBM schon ein starkes Kaufargument für AMD. Ich denke GDDR5x wäre auch nett, aber wenn dafür ein neues Chip Design nötig ist, geht's eben nicht. Vega wurde jedenfalls von Anfang an immer mit HBM in Verbindung gebracht.

Ja, hoffen ist momentan die einzige Möglichkeit. Die unzähligen Knallköpfe, Trolle und Wichtigtuer in den Foren helfen dabei kein Stück. Wenn es einen Release im Oktober gäbe, hätten wir schon lange leaks aus Ost-Asien oder Russland. Bisher war das nur wieder ein unnötiger Hype, der letztendlich nur enttäuschen wird.

Wenn AMD wenigstens halbwegs eine Richtung vorgeben würde, hätten wir den Schwachsinn doch garnicht. Stattdessen sprechen sie in Rätseln... das werde ich nie verstehen.
Die sprechen nicht in Rätseln, die geben einfach nicht genug Informationen preis. Das hier war ja bspw. auch nur eine Folie, über die berichtet wurde. Ich hoffe, dass AMD Vega noch zum Weihnachtsgeschäft auf den Markt bringt. Wäre jedenfalls wünschenswert. Auf der anderen Seite wäre es aber höchst unwahrscheinlich, dass AMD seinen Investoren nichts davon sagt, wenn sie noch das Weihnachtsgeschäft einplanen von dem her mache ich mir da auch nicht mehr als ein paar Hoffnungen.

Und was sagt das über den eigentlichen Chp aus? Gerade die Fiji-Reihe hat doch gezeigt, dass HBM alleine nichts bringt. Nvidia hat außerdem auch schon Erfahrungen mit HBM2, wie die großen P100-Modelle im Profisegment zeigen. Die ganze Karte muss passen, nicht nur einzelne Komponenten.
Bei DX12 und Vulkan hat man ja immer gut gesehen, was das Problem war: Die GPU vernünftig auszulasten. Aber gerade das hat AMD in Polaris ja schon mal verbessert - wenn mit Vega noch ein paar mehr Verbesserungen dahingehend kommen, sollte dieses Problem gelöst sein. Und ob HBM1 Erfahrungen weiterhelfen - wer weis? Darum, dass Vega ein Reinfall wird mache ich mir keine Sorgen. Problematisch ist mMn eher der Release.

Man braucht zumindest einen gewissen Zeitraum bis wann man warten kann. Von Weihnachten 2016 bis Mitte 2017 kann doch kein Mensch wirklich ernst nehmen. Selbst die Quartalsangabe wäre schon sehr ungenau. Vor allem da AMD die Releasetermine gerne bis zum letzten Tag ausschöpft und dann noch nicht einmal liefern kann.
Dito. Warten kann man immer, wird aber leichter, wenn man weis wie lange. Vielleicht weis man das bei AMD selber nicht. Eine Monats- oder wenigstens eine Quartalsangabe wäre wirklich wünschenswert.

Kompaktere Bauformen sind sicher interessant, nur werden die neuen Modelle auch alles andere als billig werden. Solange die Kühlung nicht verkleinert werden kann ohne gleich eine AiO-Wasserkühlung drauf zu packen, ändert es kaum etwas an der Kartengröße.
Mit am interessantesten wird der Nano Nachfolger. Ich finde die Nano ist eine der faszinierenden Grafikkarten überhaupt: Trotz eigentlich ineffizienter Fiji Architektur eine Effizienz auf Maxwell Niveau und dann auch noch Leistung oberhalb einer GTX 980 auf so einer kleinen Fläche. Und das bei einem so großen Chip - das Ding braucht ganze 100 Watt weniger als die Fury X, ist viel kleiner und hat trotzdem die Leistung einer Fury ohne X.
Mit Vega hat AMD auch die Chance, die Nano zu beerben. Ich bin schon gespannt, wie sich die Fiji-Nachfolger machen. :)
 
Zuletzt bearbeitet:
@Beitrag
Ja die Nano hätte ich mir gekauft wenn diese mit gescheiten Custom Kühlern angeboten worden wäre. So ist mir die Hitzeentwicklung zu grenzwertig und die Karte nicht leise. Es wäre besser gewesen die Platine einen Tick größer zu gestalten und einen besseren Kühler mit 2 Lüftern draufzupacken. Wäre immer noch kompakt gewesen und meiner Meinung nach ein wirkliches Kaufargument für die Karte. Wennmöglich ohne das fiepen.
 
Jup. AMD hätte mMn nicht so stur sein sollen die Nano und Fury X nur als Referenzdesign verkaufen zu lassen. Aber mir ging es darum zu zeigen, wie viel man mit dieser Karte aus Fiji rausgeholt hat.
 
Die Sache ist halt die, wenn AMD beabsichtigt ihre nächsten High-End Karten mit HBM2 zu bestücken, sollten sie richtig schnell sein, am besten schneller als alles was Nvidia zu bieten hat. Ansonsten werden sie vom Gegner preislich ausgekontert.
 
Ratterkiste schrieb:
Dir ist schon klar, dass sich die Bandbreite des Speichers aus der Breite des Interfaces und dem Takt des Speichers ergibt? Mit höher taktendem Speicher steigt auch bei schmalem Interface die Bandbreite...die 1080 hat auch nur 256bit.

Ja ist mir klar. Aber die 1080 ist ja klar auch eine andere Preis- und Leistungsklasse, oder?
Und ich schrieb ja auch "vermutlich" und nicht "auf jeden Fall und mit absoluter Sicherheit".
 
wäre gut gewesen wenn AMD einen kleinen Vega mit GDDR5X gepushed hätte. Wäre wirtschaftlicher und zeitiger verfügbar. Aber dann kann ja noch kommen.

Ein großer GPGPU Ableger wie bei Tesla reicht ja. Und es soll 2 Vega Chips geben. Selbst ein Polaris *2 mit 384 oder 512 Bit GDDR5X sollte doch auch sehr fix sein. Oder eben ein 4K Shader Fiji Shrink mit GDDR5X.

Die Frage ist wie viel AMD an Entwicklungsaufwand reinstecken kann. Ich denke ein Chipdesign das quasi einem einfachen Shrink gleich käme wäre am einfachsten (dann auch HBM). Da Polaris ja aber auch die ein oder andere Optimierung erfahren hat muss das mitgezogen werden und mit GDDR Interfaces hat man ja auch genug Erfahrung. Beides möglich, sofern aber AMD deutlich früher mit HBM gerechnet hat wäre eine Auslegung auf HBM logisch. Das stellt man nicht eben um.

Vielleicht stand sogar gar kein GDDR5X auf der Roadmap als AMD mit Vega begonnen hat. Naja, lang kann die Entwicklung aber nicht gehen. Der GP102 kam ja auch recht kurz nach den ersten GDDR5X Karten. Denke ein CPU Design ist ein ganz anderes Kaliber.

Suckt halt irgendwie. Bei Fiji hat man auch gut gesehen wie der Chip und dessen Design schon quasi alt war zum Release. Kein neuer UVD und HDMI 2. Das Design auf dem Stand von Tonga der n Jahr früher kam. Einzige Verzögerung war da HBM.
Wäre schade wenn Vega mit HBM 2.0 auch erst im Juni 2017 kommt.
 
Zuletzt bearbeitet:
4ndroid schrieb:
AMD hat auch die Ruhe weg... Es bräuchte so dringend einen 3rd Big Player am Markt! Jetzt zeichnet sich doch schon wieder ab dass es eine gefühlte Ewigkeit dauern wird bis AMD auch nur in die Nähe von Nvidia aufrücken kann - und Nvidia wird sicherlich auch nicht bis dahin vollends stillstehen sondern gerade soviel machen, dass AMD auf Distanz bleibt. So wie der CPU Markt im Verhältnis zu AMDs beste Zeiten stagniert, tut sich auch bei den GPUs viel weniger als möglich wäre wenn denn der Wettbewerb die Teilnehmer zwingen würde. Klar ist die Eintrittsbarriere für diesen Markt erheblich und somit wird es wenig bis keine Chancen geben, dass ein 3rd Player den Wettbewerb anheizen könnte - aber so langsam wünsche ich mir es gäbe zumindest CnP aus Asien xD
Und genau diese Entwicklung hatte ich befürchtet als AMD ATI gekauft hatte.
Zu dem Zeitpunkt war ATI im Aufwind. Und deshalb war der Kauf auch so teuer für AMD. Jetzt haben wir ein großes Ungleichgewicht zwischen den beiden noch verbliebenen GPU Herstellern Nvidia und AMD. Nvidia nutzt natürlich die eigene Marktmacht aus, und melkt die Kunden kräftigst. Ein Rekordquartal folgt dem nächsten, besonders bei den Margen.
http://www.3dcenter.org/news/nvidia...016-rekorde-schon-einem-zweiten-jahresquartal
http://www.3dcenter.org/news/geforce-gtx-1070-1080-sind-teurer-als-gedacht-angekuendigt

Jetzt muss das schwache AMD an mehreren Fronten kämpfen, und erreicht nirgendwo wirklich überzeugende Ergebnisse. Mit einem selbstständigen ATI dagegen, was seine Gewinne Großteils in die GPU-Entwicklung stecken kann, würde der Markt heute ganz anders aussehen. Ein wirklich ausgeglichenes Duopol im GPU-Bereich wird es wohl nie wieder geben, geschweige denn einen 3. Mitspieler.
 
Zuletzt bearbeitet von einem Moderator:
Lustig wie man sich die Köpfe zerbricht. Das Vega später kommt hat einfach den Grund das amd im unteren preissegnent mit den kleinen Chips gestartet ist. Nvidia eben im oberen preissegment. Ein highend amd Kunde hat eben aktuell das gleiche Problem wie ein lowend nvidia Kunde. Keine Produkte.

Das Vega später kommt liegt einfach auch an den fehlenden dx12 und Vulkan Games. Wozu einen next gen Chip releasen der extrem teuer ist und nicht zur Geltung kommt. Außerdem hat amd noch ganz andere Dinge in der aktuellen Pipeline, nämlich die ganzen konsolendeals. Die kommen natürlich auch alle im aktuellsten fertigungsprozess. Und genauso wie bei nvidia sind auch bei amd die Ressourcen begrenzt. Der Bedarf an 800euro Karten ist ja auch ein ganz anderer als bei 150euro Karten. Und 25 Konsolen werden auch nicht für einen weltweiten release reichen.

Und dann wäre da noch Zen. Der ist auch seit langem für den Jahreswechsel angekündigt. Zusammen mit vega kann amd dann den Hammer raushauen und mal wieder den Markt ordentlich aufmischen.

Mal sehen ob es der Kunde auch mal würdigt und nicht zur konkurenz greift, welche dann die Preise auch wird anpassen müssen.

Verramschen wird man die Produkte aber in keinem Fall. Die Zeiten sind vorbei. Auch Vega 11 wird kein Schnäppchen, dafür aber ein rundes Produkt mit genug VRAM und Leistung sowie aktuellen Features.
 
Wo soll denn ATi beim Kauf im Aufschwung gewesen sein?
Zu der Zeit kam die 2900XT, diese war zu stromhungrig und die Leistung reichte nicht an die Konkurrenz heran.
Dann kaufte AMD den Laden und bohrte die HD2000er Architektur auf und verkaufte sie wesentlich verbessert als HD3000er Serie.
 
PeterPlan schrieb:
Ich hätte mir wirklich gerne eine AMD-Karte geholt, allein deshalb, um den "Underdog" zu unterstützen.

Aber die RX 480 Custom kommt ja nicht in die Pötte, und was schnelleres gibt es auch nicht von AMD (für WQHD ist die 480 auch schon grenzwertig). Also wurde es eben die GTX 1070.

So wie ich haben das vermutlich viele gemacht. Pech gehabt, AMD, ihr wart einfach zu langsam.

In der Tat habe ich das auch so gemacht. Meine R9 280X wird demnächst in die Reserve versetzt und durch eine GTX 1070 ersetzt.
Ergänzung ()

Wer zu spät kommt, den bestraft das Leben.
 
Hm, AMD hat glatt nicht für die HBM2 Verzögerung geplant, überrascht mich doch etwas. Nvidia hat das geschickter gelöst mit einem GDDRX5 Ersatz und hat Zwischenlösungen präsentiert um den Releasezyklus einzuhalten.

Tja, was solls, ist jetzt nicht zu ändern.
 
Wo hast Du das her mit der Verzögerung von HBM2? Zuletzt gab es hier auf CB einen Artikel von der HotChips-Konferenz und irgendwann mal die Diskussion, dass AMD bei der HBM2-Lieferung bevorzugt wird.
 
Conceptions schrieb:
Ja, eine neue Richtung, eine neues Konzept, eine neue Herangehensweise, dennoch als GPU im Desktopbereich nicht zu gebrauchen.

Zum Glück kennt sich unser Conceptions so gut aus. Ein hoch bezahlter GPU-Spezialist. Oder etwa doch nicht? Die Analyse folgt sogleich.

Conceptions schrieb:
Intel hatte es versucht und ist grandios gescheitert, und konnte zu ihrem Glück ihr Projekt noch umbiegen und zu Geld machen.
Nur weil man CPU kann und viel Geld für R&D hat, bedeutet es nicht das man auch gute GPUs bauen kann.

Und das bestätigt die Annahme.

Was wollte man mit Larabee erreichen:

1. Der stärkste Chip hinsichtlich FLOPS/W für Real-World-Workloads zu sein, der aus einer möglichst hohen Anzahl an simplen Kernen besteht und sich einfach in bestehende Systeme integrieren lässt.

2. Dieser Chip sollte auf x86-Kernen beruhen und es damit möglich machen, bestehende Betriebssysteme zu verwenden oder aber eine einfache Implementation von Speicher-Koheränz zu erreichen. Es sollte kein Legacy Code oder proprietärer Code verwendet werden. Man wollte keinen weiteren Itanium-Prozessor entwickeln.

3. Der Prozessor sollte schnell und einfach entwickelt werden.

4. Larabee sollte den wachsenden GPGPU-Markt adressieren. Zu diesem Zeitpunkt wollte Intel keine PCI-Express-Grafikkarte auf Basis der Gen-Grafik entwickeln lassen. Es war also wichtige "normale Grafik" ebenso ausführen zu können, wie am GPGPU-Markt vertreten zu sein.
Es sollte so wenig grafikkartenspezifische Hardware wie möglich verwendet werden.

Welche Ziele wurden erreicht, die meisten. Genau Analyse: http://www.hardwareluxx.de/index.ph...ine-gute-grafikkarte-werden-koennen-wenn.html

Ein kleine Aufklärung für unseren "Spezialist":

Larabee ist nicht gescheitert weil man schlechte Hardware produzierte, wie du hier so lauthals als Fakt darstellst, sondern aus einer Managemententscheidung raus.

Larabee scheiterte vor allem daran, dass bei Intel ein Umdenken in der Chefetage stattgefunden hat und man eine dedizierte Grafikkarte nicht mehr als Ziel dieser Entwicklung sehen wollte.

Larabee eine gute GPU, ja:

Larabee konnte problemlos den zum damaligen Zeitpunkt verfügbaren Grafikkarte und GPU-Beschleunigern folgen. Compute Shader und OpenCL liefen schnell und effizient auf den Chips. DirectX und OpenCL waren sogar schneller als auf Hardware der Konkurrenz – zumindest so lange weitestgehend Compute-Berechnungen damit durchgeführt wurden. Die notwendigen Programmierungs-Modelle wie ISPC und CILK Plus sind noch heute ein Standard in diesem Bereich. Mit der Einstellung der Entwicklung von Larabee als Grafikkarten endeten auch die Software-Anpassungen in diesem Bereich und damit befand Larabee als Grafikkarte in einer Sackgasse.

Es handelte sich bei Larabee sogar um die erste Grafikarte, die vollständig alle Feature Sets von DirectX 11 unterstützen konnte.

Hallo AMD, schön kopiert vom "Reinfall":

Ressourcen konnten umverteilt werden und wer wollte konnte bestimmte Bereiche dedizierten Aufgaben zuordnen. AMD hat mit der Polaris-Architektur ein ähnliches Konzept eingeführt. Hier können per Compute Unit Reservation einzelne Recheneinheiten einer bestimmten Aufgabe, der Berechnung von Audio, zugeordnet werden.

Aus Managementsicht die richtige Entscheidung, verdient man doch deutlich mehr als im GPU-Segment. Auch eine gute Entscheidung für NV und AMD, denn die wären wohl - hätte man das Projekt als GPU ernst gemeint - beide ordentlich zugesetzt. Davon können die heute ein Lied von singen, NV verliert ordentlich an Boden bei den Beschleunigern im HPC-Markt und AMD ist quasi nicht existent. Wäre Larabee schlecht, hätte es in Form der Phi nicht so deutlich an Marktanteile gewonnen und das von 0 an. Das Konzept mit x86 Code und ohne Host kommt besser an als sich das NV oder AMD wünschen würden.

Aber so kennen wir unseren Conceptions, alles was nicht aus der AMD Marketing-Abteilung kommt ist ein Reinfall. Ein kleiner Tipp an dich, erst Fakten checken, dann denken und dann äußern.

Quelle: http://www.hardwareluxx.de/index.ph...ine-gute-grafikkarte-werden-koennen-wenn.html
 
Zuletzt bearbeitet:
Das geile am Larabee ist ja eigentlich das er auch Ray Tracing effizient berechnen kann. Aber dafür ist die Gaming-Welt noch nicht so ganz bereit (vor allem reicht selbst die Power vom Larabee noch nicht wirklich um damit was zu reißen...)
 
tic-tac-toe-x-o schrieb:
Ich glaube an Imagination Technologies. ;_;
Ne ernsthaft. Die hätten vermutlich das Potential. Sonst gibts niemand. Intel zumindest nicht.
Naja, ich denke Intel selbst hat da durchaus das Potenzial. Die neuesten Iris Pro Ableger waren zumindest schon ziemlich ordentlich und würden eigentlich den anderen beiden (AMD/nVidia) sämtliche Grafikkarten-Verkäufe unter 100€ vermiesen.
https://www.computerbase.de/2015-06/intel-core-i7-5775c-test/2/

Allerdings fehlt da bei Intel glaube ich der Wille dazu, dort kompetetiv einzusteigen, anstattdessen gibts die Iris Pro immer nur bei 1-2 teuren Modellen, die anderen kleineren iGPUs können dann schon wieder nicht mithalten, sind aber dafür für Home Entertainment, Videobeschleunigung und Co absolut ausreichend und auch gut.
 
Zurück
Oben